内容简介:通过实例操作,专门用于客户端请求的函数叫做中间件,使用use()注册use()函数中必须使用异步 async; use可是调用无数次;其中有两个参数:
npm i -S koa@latest const koa = require("koa"); const app = new koa;
通过实例操作,专门用于客户端请求的函数叫做中间件,使用use()注册
use()函数中必须使用异步 async; use可是调用无数次;
其中有两个参数:
a)ctx: 上下文环境,node的请求和响应对象,其中不建议使用node原生的req和res属性,使用koa封装的requset和response属性
b)next: next(),将本次控制权交给下一个中间件。
最后一个中间件使用next()无意义,执行完控制权返回上一层,直至第一个。
1. next参数的使用demo
const Koa = require("koa"); const koa = new Koa(); //中间件1 koa.use(async (ctx, next) => { console.log("1 , 接收请求控制权"); await next(); //将控制权传给下一个中间件 console.log("1 , 返回请求控制权"); }); //将中间件注册到koa的实例上 //中间件2 koa.use(async (ctx, next) => { console.log("2 , 接收请求控制权"); await next(); console.log("2 , 返回请求控制权"); }); //中间件3 koa.use(async (ctx, next) => { console.log("3 , 接收请求控制权"); console.log("3 ,返回请求控制权"); }); koa.listen(3000, ()=>{ console.log("开始监听3000端口"); }); 复制代码
注:当中间件中没有next(),不会执行下面的中间件
访问localhost:3000的效果图;
注:会有两次操作是因为图标icon也会请求一次
2.ctx参数的使用demo
const Koa = require("koa"); const koa = new Koa(); koa.use(async (ctx, next)=>{ ctx.body = "body可以返回数据,"; ctx.body += "可以多次调用,"; ctx.body += "不需要end()"; }); koa.listen(3000, ()=>{ console.log("监听开始"); }); 复制代码
效果:
ctx.url ,ctx.path ,ctx.query ,ctx.querystring ,ctx.state ,ctx.type
const Koa = require("koa"); const koa = new Koa(); koa.use(async (ctx, next)=>{ ctx.body = ctx.url; ctx.body = ctx.path; ctx.body = ctx.query; ctx.body = ctx.querystring; }); koa.listen(3000, ()=>{ console.log("监听开始"); }); 复制代码
访问http://localhost:3000/path?name=sjl&age=18为例,效果图:
- url: 整个路径
2. path: 非查询部分
3. query: 将查询部分转为JSON对象
4. querystring: 将查询部分转为字符串
5. ctx.state ,ctx.type 表示状态吗和类型
2.简单爬虫练习
安装request,cheerio模块
npm i -S request: 请求模块 npm i -S cheerio: 抓取页面模块(JQ核心) 复制代码
抓取网页数据案例(随机网页)
//导入模块 const request = require("superagent"); //导入请求模块 const cheerio = require("cheerio"); const {join} = require("path"); const fs = require("fs"); let arr = [], //存放数据 reg = /\n|\s+/g, //replace中使用 url = "https://www.shiguangkey.com/course/search?key=%E5%89%8D%E7%AB%AF/"; request .get(url) .end((err, res) => { const $ = cheerio.load(res.text); //把字符串内的标签当成dom来使用 $(".course-item").each((i, v) => { // v当前进来的dom,根据网页的布局结构来找到准确的dom节点 const obj = { imgSrc : $(v).find("img").prop("src"), price : $(v).find(".fr span").text().replace(reg, ""), total : $(v).find(".item-txt").text().replace(reg, ""), href : join(url + $(v).find(".cimg").prop("href")) }; console.log(join(url + $(v).find(".cimg").prop("href"))); //拼接 arr.push(obj); //把对象放进数组里 }); fs.writeFile("./sjl.json", JSON.stringify(arr)); //将爬到的数据写入文档中 }); 复制代码
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 超级易懂爬虫系列之爬虫框架scrapy
- python网络爬虫(14)使用Scrapy搭建爬虫框架
- 一个咸鱼的python爬虫之路(五):scrapy 爬虫框架
- 11、web爬虫讲解2—Scrapy框架爬虫—Scrapy使用
- Scrapy框架-----爬虫
- 网络爬虫框架开发笔记
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。