Javascript Web 抓取几个 url

Javascript Web Scraping couple urls

我想从一对 url 中获取一些数据并写入 csv 文件。但是结果对我来说并不满意,因为我没有得到所有数据(在这种情况下应该是 10 个)并且获取的数据顺序不正确。应该是 1、2、3 等等,但我是随机得到的,6、10、5、1...。从这段代码中,我有时会得到六个 h3 值,有时是五个,它是随机发生的。我的 url 地址 100% 好。我正在使用 async await 语法,但它没有帮助。我是初学者。这是我的代码:

const request = require('request');
const cheerio = require('cheerio');
const fs = require('fs');
const writeSteam = fs.createWriteStream('data.csv');

let data= '';
const numOfFetchData = 10;
const numbers = Array.from(Array(numOfFetchData + 1).keys());

async function getData() {
    for await (const number of numbers) {
        request('randomURL/' + (number+1), (err, res, html) => {
            if(!err && res.statusCode == 200 && (number+1) <= numOfFetchData) {
                const $ = cheerio.load(html);
                const h3Tag = $("h3")[0].children[0].data;
                data += (number + 1) + ' ' + h3Tag + '\n'   
            } else {
                writeSteam.write(`${data}`); 
            }
        });
    };
};

getData();

我的代码应该改进什么?

谢谢并致以最诚挚的问候!

再次查看您的代码后,请求库似乎没有 return 承诺,但可以使用回调(使 async/await 不可用)。如果您真的希望按顺序获取代码,您可以

  1. 使用递归仅在第一个请求完成后触发下一个请求:
async function getData(numbers) {
    request('randomURL/' + (numbers[numbers.length - 1] + 1), (err, res, html) => {
        numbers.pop()
        if(!err && res.statusCode == 200 && (number+1) <= numOfFetchData) {
                const $ = cheerio.load(html);
                const h3Tag = $("h3")[0].children[0].data;
                data += (number + 1) + ' ' + h3Tag + '\n'   
        } else {
                writeSteam.write(`${data}`); 
        }
        if (numbers.length > 0) getData(numbers);
    });
};

getData(numbers);
  1. 如果您获取数据的顺序不是只要结果与初始数字数组的顺序相同我建议使用 fetch(一个 promise 库)而不是 request:
async function getData() {
    let fetchPromises = numbers.map(number => fetch('randomURL/' + (number+1)));
    const results = await Promise.all(fetchPromises); // results in order
    // Handle results
};