Advertisement

Weibo-Follow:抓取关注列表中的微博账号内容

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
微博关注内容抓取工具Weibo-Follow能够自动收集和整理用户所关注微博账号发布的最新信息,便于集中管理和查看感兴趣的内容。 该程序用于爬取指定微博用户关注列表中的账号,并批量获取其user_id,然后将这些id存储在user_id_list.txt文件中。每个用户最多可以获取200个user_id并写入到文件;接着使用生成的user_id_list.txt作为config.json配置文件“user_id_list”参数值,继续进行爬取操作,理论上可以获得大量的微博账号信息(例如:40000个use_id或8,000,000个)。具体的操作步骤如下: 1. 克隆项目到本地: ``` $ git clone https://github.com/dataabc/weibo-follow.git ``` 2. 安装程序所需的依赖库: ``` $ pip install -r requirements.txt ``` 3. 配置config.json文件,按照说明进行设置后即可开始获取微博账号的user_id。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • Weibo-Follow
    优质
    微博关注内容抓取工具Weibo-Follow能够自动收集和整理用户所关注微博账号发布的最新信息,便于集中管理和查看感兴趣的内容。 该程序用于爬取指定微博用户关注列表中的账号,并批量获取其user_id,然后将这些id存储在user_id_list.txt文件中。每个用户最多可以获取200个user_id并写入到文件;接着使用生成的user_id_list.txt作为config.json配置文件“user_id_list”参数值,继续进行爬取操作,理论上可以获得大量的微博账号信息(例如:40000个use_id或8,000,000个)。具体的操作步骤如下: 1. 克隆项目到本地: ``` $ git clone https://github.com/dataabc/weibo-follow.git ``` 2. 安装程序所需的依赖库: ``` $ pip install -r requirements.txt ``` 3. 配置config.json文件,按照说明进行设置后即可开始获取微博账号的user_id。
  • Weibo Batch Follow: 批量(调整
    优质
    微博批量关注是一款功能强大的工具,帮助用户高效地管理和优化他们的微博关注列表。通过使用此应用,你可以快速添加多个粉丝或好友,并且能够轻松地根据需求对关注对象进行筛选和排序,提高社交互动效率。 微博批量关注(转移关注列表)好像并没有什么卵用。起因使用方法如下: 1. 使用A账号登录微博H5版首页。 2. 右键点击“检查”,打开开发者工具,复制以下代码并粘贴到控制台中: ``` (() => { const follows = []; const sleep = time => () => new Promise(resolve => setTimeout(resolve, time)); const query = page => fetch(`/api/container/getIndex?containerid=231093_-_selffollowed&page=${page}`, { headers: { X-XSRF-TOKEN: ``` 等待结果并复制。当关注数量较多时请耐心等待,由于接口限制可能无法获得完整的关注列表。
  • Python:
    优质
    本教程详细介绍了如何使用Python编写代码来自动抓取和分析网络上的博文内容,帮助读者掌握相关技术和方法。 使用Jupyter Notebook爬取博文内容的步骤如下:首先,在Jupyter Notebook中打开需要爬取的内容;接着,利用requests库获取网页数据;然后通过json()函数解析返回的数据;最后,将处理后的数据用to_excel函数保存为Excel文件。需要注意的是,在首次执行时可能会遇到某些网址无法成功抓取的情况,请尝试重复运行几次即可解决问题。
  • 使用Python图片和
    优质
    本项目利用Python编写代码,自动从微博中提取图片与文字内容,适用于数据分析、备份收藏等需求。 注意:登录的是 http://m/weibo.cn 的界面示例如下。 关于抓取微博的代码如下: ```python import random import urllib.request import json import re import requests import time id = input(请输入要抓的微博uid:) proxy_list = [112.228.161.57:8118, 125.126.164.21:34592, 122.72.18.35:80, 163.125.151.124:9999, 114.250.25.19:80] proxy_addr = random.choice(proxy_list) ```
  • 基于Scrapy爬虫-按键词获
    优质
    本项目利用Python Scrapy框架开发微博数据抓取工具,可依据设定关键词实时搜集与之相关的微博发布信息,为数据分析提供丰富素材。 主要使用Python中的第三方库Scrapy爬虫框架。首先,请阅读README.md文件以获取详细说明。然后输入你的微博cookie,并提供关键词、爬取日期等相关信息,最后运行即可。
  • 键词.py
    优质
    这段Python代码用于从微博平台中抓取热门或特定的关键词数据,方便用户进行数据分析和挖掘。 该程序是根据微博中关键词的抓取,整个过程都包含注释内容。
  • 信公众文章_公众_公众
    优质
    本工具旨在帮助用户轻松抓取微信公众号的文章和内容,简化信息收集与分享的过程,提高工作效率。 可以批量爬取公众号上的文章,并保存成PDF文件。
  • Python爬虫(Weibo Spider)- 获新浪数据
    优质
    Python微博爬虫(Weibo Spider)是一款专为获取新浪微博公开数据设计的工具。使用该爬虫可以轻松抓取用户帖子、评论等信息,适用于数据分析与研究。 本程序能够连续抓取一个或多个新浪微博用户的资料(例如胡歌、迪丽热巴、郭碧婷),并将结果保存至文件或数据库之中。所获取的信息几乎涵盖了用户微博的所有数据,包括但不限于用户信息与微博内容两大类别。由于细节繁多,在此不一一列举,请参考具体字段详情以了解更多信息。 若仅需提取用户的个人资料,则可通过调整设置来实现这一功能。使用本程序时需要配置cookie以便访问新浪微博的数据;后续会详细介绍如何获取所需的cookie值。如无需设定cookie,亦可选择免cookie版本,二者核心功能大致相同。 抓取到的信息可以保存为多种格式的文件或数据库记录: - 文本(txt)文件 - 逗号分隔值(csv) - JavaScript对象表示法(JSON) - MySQL关系型数据库 - MongoDB非关系型数据库 - SQLite轻量级嵌入式SQL 此外,该程序还支持下载微博内的多媒体内容,包括但不限于原创和转发状态下的图片与视频。特别地,在免cookie版本中增加了对Live Photo视频的抓取功能。 具体可获取并保存的内容如下: - 原创微博中的原始图片 - 转发微博中的原始图片 - 原创微博中的视频文件 - 转发微博中的视频文件 对于免cookie版,还额外提供以下下载选项: - Live Photo格式下的原创视频内容 - Live Photo内的转发视频
  • WeixinScraper:信公众原创工具
    优质
    WeixinScraper是一款专为研究和分析设计的微信公众号原创文章自动抓取工具,它能够高效地收集大量数据,为学术研究、市场调查等提供支持。 weixinScrapergolang可以从搜狗爬取微信的最新文章,并通过搜索引擎验证其原创度等。
  • 使用Scrapy新浪用户资料、及评论转发
    优质
    本项目利用Python Scrapy框架开发,专注于爬取并分析新浪微博中的用户信息、发布的微博内容及其互动(如评论和转发),为社交媒体数据挖掘提供支持。 使用Scrapy爬取新浪微博用户的信息、用户的微博以及微博的评论和转发。