umi 配置多环境打包

栏目: JavaScript · 发布时间: 5年前

内容简介:平时我们开发应用时环境有开发环境、测试环境、生产环境等,此时我们需要配置不同的环境,获取不同的apiUrl前缀,以满足日常开发需要。3.复制两次config/config.js,并更改文件名为config/config.test.js 和 config/config.prod.js,分别配置apiUrl

平时我们开发应用时环境有开发环境、测试环境、生产环境等,此时我们需要配置不同的环境,获取不同的apiUrl前缀,以满足日常开发需要。

1.安装 cross-env 插件

npm install --save-dev cross-env

2.在config/config.js文件里配置开发环境的apiUrl

define: {
    "process.env.apiUrl":'https://www.dev.com/'
  },

3.复制两次config/config.js,并更改文件名为config/config.test.js 和 config/config.prod.js,分别配置apiUrl

// config.test.js
 define: {
    "process.env.apiUrl":'https://www.test.com/'
  },
// config.prod.js
 define: {
    "process.env.apiUrl":'https://www.prod.com/'
  },

4.在其他文件可以获取process.env.apiUrl 作为url前缀,如封装axios的request.js

// request.js
console.log(process.env.apiUrl);

5.在package.json 的scripts处配置打包命令

"build-dev": "cross-env UMI_ENV=dev umi dev",
"build-test": "cross-env UMI_ENV=test umi build",
"build-prod": "cross-env UMI_ENV=prod umi build",

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Python 3网络爬虫开发实战

Python 3网络爬虫开发实战

崔庆才 / 人民邮电出版社 / 2018-4 / 99

本书介绍了如何利用Python 3开发网络爬虫,书中首先介绍了环境配置和基础知识,然后讨论了urllib、requests、正则表达式、Beautiful Soup、XPath、pyquery、数据存储、Ajax数据爬取等内容,接着通过多个案例介绍了不同场景下如何实现数据爬取,后介绍了pyspider框架、Scrapy框架和分布式爬虫。 本书适合Python程序员阅读。一起来看看 《Python 3网络爬虫开发实战》 这本书的介绍吧!

图片转BASE64编码
图片转BASE64编码

在线图片转Base64编码工具

Base64 编码/解码
Base64 编码/解码

Base64 编码/解码

RGB HSV 转换
RGB HSV 转换

RGB HSV 互转工具