如何盘点出掘金的年度高赞文章?

sxkk20082年前知识分享204

前言

各位掘友,新年好,今天是 2022 年的第一天,掘金的人气作者投票活动如火如荼,榜单已经落幕,当然跟我半毛钱关系都没有,我的新年 Flag ,就是掘金等级到达 V4,而对于绝大多数读者来说,新年 Flag 中是否有“学习”这一项呢,对于我来说,我也是,于是就有萌生一个想法,我想统计出掘金的年度高赞文章。

  1. 是可以收藏这些高赞文章,然后慢慢学习;
  2. 是想通过这些文章学习下,哪些文章是适合读者的,这些文章的优点在哪?我们该如何写文章?

统计年度活跃作者

掘金年度活跃作者

正好我们可以通过“年底投票页面”统计出今年活跃的作者,这个页面是滚动翻页,通过 has_more 来判断是否有下一页,那么我们就可以通过 nodejs 获取到所有作者的 ID。

const axios = require('axios')
const _ = require('lodash')
const fs = require('fs')

const url = 'https://api.juejin.cn/list_api/v1/annual/list'

const headers = {
  'content-type': 'application/json; ',
  'user-agent':
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36',
  cookies: 'xxx',
}

let userId = []

const fetchUserId = (cursor = 0) => {
  console.log('请求第' + cursor + '页')
  axios
    .post(
      url,
      { annual_id: '2021', list_type: 0, cursor: cursor + '', keyword: '' },
      {
        headers,
      }
    )
    .then((res) => {
      const data = res.data
      userId = userId.concat(_.map(data.data, 'user_id'))
      if (data.has_more && userId.length < 1000) {
        fetchUserId(cursor + 10)
      } else {
        fs.writeFileSync('./0-1000.json', JSON.stringify(userId))
      }
    })
}
fetchUserId()

cookies 可以在浏览器中复制,这样就可以统计排名前 1000 的作者, 分次统计是为了防止掘金后台接口限制。通过 3 次运行,结果统计出这次报名的有 2035 名作者进行报名,当然这个数据不一定准确,接下来我们可以根据所有的用户 ID 获取每位作者的文章了。

获取每位作者的文章列表

我们可以根据投票详情页获取每位作者的文章列表。这里不得不吐槽下掘金的这个接口,前端只展示 3 篇文章,后端却给了全部数据。。。 😅

年度作者文章页面

一起来看下每条数据详情:

年度作者接口返回

这里的文章默认是根据热度排列的,但是我们不知道是根据点赞排列,还是收藏排列的,我们不清楚。

还好,我们可以根据读者页面获取每位掘金作者的文章,如下图:

掘金个人主页接口返回

再次吐槽下,user_info 数据重复了 N 次, 这里的接口有点赞数,评论数和收藏数。(弱弱问 digg_count 是什么意思?哪个单词的前缀?)

掘金文章接口返回详情

建表统计

接下来我们要统计数据了,这么大的数据量,我们不可能用 json 存储,我这边选用了 psql, ORM 选用了 prisma,不了解的同学可以看我之前的翻译文章《适用于 Node.js 和 TypeScript 的完整 ORM —— Prisma》

建立 schema

datasource db {
  provider = "postgresql"
  url      = env("DATABASE_URL")
}

generator client {
  provider = "prisma-client-js"
}

model Article {
  article_id    String           @id
  title         String
  brief_content String
  content       String?
  cover_image   String
  user_id       String
  ctime         String
  digg_count    Int
  view_count    Int
  comment_count Int
  collect_count Int
  author_id     String
  author        Author           @relation(fields: [author_id], references: [id])
  category_id   String
  category      Category         @relation(fields: [category_id], references: [id])
  tags          TagsOnArticles[]
}

model Author {
  id           String    @id
  name         String
  avatar_large String
  articles     Article[]
}

model Category {
  id       String    @id
  name     String
  articles Article[]
}

model Tag {
  id       String           @id
  name     String
  articles TagsOnArticles[]
}

model TagsOnArticles {
  article    Article @relation(fields: [article_id], references: [article_id])
  article_id String
  tag        Tag     @relation(fields: [tag_id], references: [id])
  tag_id     String

  @@id([article_id, tag_id])
}

表关系

  • 文章跟用户 —— 多对一
  • 文章跟跟分类 —— 多对一
  • 文章跟标签 —— 多对多

获取用户的文章列表代码

/**
 * 获取用户的文章列表
 * @param userId
 * @returns
 */

const fetchList = async (userId: string) => {
  console.log('开始采集' + userId)
  return new Promise((reslove) => {
    setTimeout(async () => {
      await axios
        .post(
          'https://api.juejin.cn/content_api/v1/article/query_list?aid=2608&uuid=6899676175061648910',
          {
            user_id: userId,
            sort_type: 1,
            cursor: '0',
          },
          { headers }
        )
        .then((res: any) => {
          const data = res.data.data
          if (data && data.length) {
            // 插入数据库
            insert(data)
              .catch((e) => {
                console.error(e)
                process.exit(1)
              })
              .finally(() => {
                reslove('')
              })
          } else {
            reslove('')
          }
        })
    }, 2000)
  })
}

为了防止提交过于频繁,我这边设置 2 秒延迟。

插入数据库代码

/**
 * 插入数据库
 * @param data
 */
async function insert(data: any) {
  for (const item of data) {
    const article_info = _.pick(item.article_info, [
      'article_id',
      'title',
      'brief_content',
      'cover_image',
      'user_id',
      'ctime',
      'digg_count',
      'view_count',
      'comment_count',
      'collect_count',
    ])

    const author_user_info = await prisma.author.findUnique({
      where: {
        id: item.author_user_info.user_id,
      },
    })
    if (!author_user_info) {
      await prisma.author.create({
        data: {
          id: item.author_user_info.user_id,
          name: item.author_user_info.user_name,
          avatar_large: item.author_user_info.avatar_large,
        },
      })
    }

    const category = await prisma.category.findUnique({
      where: {
        id: item.category.category_id,
      },
    })

    if (!category) {
      await prisma.category.create({
        data: {
          id: item.category.category_id,
          name: item.category.category_name,
        },
      })
    }
    const article = await prisma.article.findUnique({
      where: {
        article_id: article_info.article_id,
      },
    })
    const creates_tags = _.map(item.tags, (tag: any) => {
      return {
        tag: {
          connectOrCreate: {
            create: {
              id: tag.tag_id,
              name: tag.tag_name,
            },
            where: {
              id: tag.tag_id,
            },
          },
        },
      }
    })
    if (!article) {
      console.log('create---' + article_info.title)

      await prisma.article.create({
        data: {
          ...article_info,
          author_id: item.article_info.user_id,
          category_id: item.category.category_id,
          tags: {
            create: creates_tags,
          },
        },
      })
    }
  }
}

执行 fetchList 就可以获取单个用户的文章了,接下来就是遍历所有 userId, 将所有文章列表保存到数据库中。

这里我们不能通过 Promise.all去执行,因为 Promise.all会将所有的 Promise 同步执行,这样后端为了防止过载,就会直接拒绝你的请求。我们需要将每个请求,每隔 2s 依次请求,然后保存到数据库,该使用什么方法呢?(这个一道常规面试题,如何让多个 Promise 依次执行?)看到这里的小伙伴,不妨在评论区留言。

效果

等待全部运行完成,我们就将年度作者的全部文章保存到数据库了。 运行下面命令,通过 prisma studio 查看数据

npx prisma studio

查询创建时间大于 2021-01-01

new Date('2021/01/01').getTime() //1609430400000

统计结果

根据点赞数降序排列,就得到我们的高赞文章列表了。

小结

根据这些结果我也总结出了几点,也就是如何写出高赞的文章?

  1. 读者群体要广

    写 ES6 > Vue > React, 就像我之前写的文章《如何测试 React 异步组件?》,阅读量也就可想而知了,会的肯定不需要看你的文章,不会的也没这个需求。

  2. 文章一定要容易理解,一定要让读者理解知识点。

    就像作者 林三心 说的

    用最通俗的话讲最难的知识点是我的座右铭。

最后

小伙伴们,你们是否看懂了我的这篇文章了呢,请给我一个小赞,你的赞是对我最大的支持。


以上就是本文全部内容,希望这篇文章对大家有所帮助,也可以参考我往期的文章或者在评论区交流你的想法和心得,欢迎一起探索前端。

本文首发掘金平台,来源小马博客

相关文章

油库智能化-AI技术助力数字化转型

油库智能化-AI技术助力数字化转型

  随着数字化转型的推进,越来越多企业开始尝试引入AI技术,优化工作流程、提高效率。油库这一行业同样不例外。当前,油库智能化正处于蓬勃发展的阶段,AI技术也逐渐成为推动油库数...

新的文档采用了全新的架构 next.js + Tailwind CSS ,改版后的文档界面有种焕然一新的感觉,支持暗黑模式,我们可以在线学习,并且写代码,采用了这种所见即所得的形式,大大降低了学习者的成本,我也被这种形式所深深吸引,那么这种所见即所得的形式是如何实现的呢?

基本介绍

新文档地址在 https://github.com/reactjs/reactjs.org/ 中的 beta 目录下,外层代码是目前的文档代码,那么我们可以直接 git clone 并且拷贝 beta 目录下的内容

这里面有 yarn.lock 文件,跟绝大多数 next 项目一样 yarn install 之后,运行 yarn dev 就可以运行开发环境

s16501401132022

启动速度非常快,仅仅 3.3s, 打开 http://localhost:3000,此时 next.js 会再次编译,大概 200ms,这种优势得益于 next.js 按需编译的优势,也就是是说当前启动的时候,并不会全站打包,而是当进入某个页面的时候编译当前页面,所以速度相当快。

约定式路由

s16384301132022 next 是约定式路由,在 pages 文件夹下的目录默认生成路由,即 '/src/pages/learn/add-react-to-a-website.md' 生成路由 /learn/add-react-to-a-website

此时发现里面的文档都是.md后缀的 Markdown 文件,那么 markdown 也可以写交互功能了吗? image.png

React 新的文档用到了哪些技术?

前言https://beta.reactjs.org React 的新的文档已经 完成了 70 % 并且呼吁社区进行翻译工作。 新的文档采用了全新的架构 next.js + Tailwind CSS...

AI农业:将人工智能技术应用于农业领域的创新之举

AI农业:将人工智能技术应用于农业领域的创新之举

  在当今社会,人工智能(AI)的发展正以惊人的速度改变着各行各业。其中,农业作为人类生存的基石,也不例外。AI农业,作为将人工智能技术应用于农业领域的创新之举,正在引起广泛...

人工智能与分布式计算:潜力巨大的合作伙伴

人工智能与分布式计算:潜力巨大的合作伙伴

  随着人工智能技术的迅速发展和应用的广泛普及,分布式计算成为了支撑人工智能发展的重要基础设施。人工智能的算法训练和推理过程需要大量的计算资源,而分布式计算能够通过将计算任务...

AI绘画生成器 - 让机器也能成为艺术家

AI绘画生成器 - 让机器也能成为艺术家

  最近,一个名为“AI绘画生成器”的网站开始在社交媒体上走红。这个网站可以根据用户的输入,通过人工智能技术生成一幅艺术画作。这种新型的艺术创造方式引起了不少关注,因此我们有...

人工智能专业学什么?探寻智能科技的未来发展前景!

人工智能专业学什么?探寻智能科技的未来发展前景!

  随着人工智能技术的快速发展与普及,越来越多的人开始对人工智能专业产生了浓厚的兴趣。那么,人工智能专业到底学什么呢?  一、学术理论基础:人工智能的核心要素  人工智能专业...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。