NXY11

Results 18 comments of NXY11

> 先访问https://m.weibo.cn/,打开调试,再访问https://weibo.cn/看看。 您好,我想爬取某博主的微博内容,但我没有他的账号密码,请问还有办法用cookie吗

> > 先访问[https://m.weibo.cn/,打开调试,再访问https://weibo.cn/看看。](https://m.weibo.cn/%EF%BC%8C%E6%89%93%E5%BC%80%E8%B0%83%E8%AF%95%EF%BC%8C%E5%86%8D%E8%AE%BF%E9%97%AEhttps://weibo.cn/%E7%9C%8B%E7%9C%8B%E3%80%82) > > 在chrome那里,还是不太会弄,后来在edge里面的控制台,应用程序,然后找到了很多cookie名称,有个SUB,有个SUBP,我就贴的SUB那个到文件中,能下载的微博条数比之前多,但是也不知道这个方法对不对 > > ![Image](https://github.com/user-attachments/assets/cda9e2d7-a570-4357-aa6d-eeb5c2ff5c7c) 您好,可以问下您是有该用户的账号密码嘛,我看作者是让输入账号密码,然后获得了cookie?

> [@NXY11](https://github.com/NXY11) 是你自己账号的cookie,不是别人的。比如你在网页上访问别人的微博,可能也需要登录自己的账号,不用别人的账号。 好的谢谢!

> 可能是被限制了,添加cookie看看,不确定是否有效。添加了cookie,但是还是这样,还可能有别的原因吗?谢谢!

> 可能是被限制了,添加cookie看看,不确定是否有效。已经解决啦!谢谢!

及时更新cookie ------------------ 原始邮件 ------------------ 发件人: "dataabc/weibo-crawler" ***@***.***>; 发送时间: 2025年7月25日(星期五) 上午10:06 ***@***.***>; ***@***.******@***.***>; 主题: Re: [dataabc/weibo-crawler] 想问下为什么微博全文内容显示不出来了呢,谢谢! (Issue #522) Red-x-Moon left a comment (dataabc/weibo-crawler#522) 可能是被限制了,添加cookie看看,不确定是否有效。已经解决啦!谢谢! 请问这个问题是怎么解决的啊? — Reply to this email directly, view it on...

可以刷新试试? ---原始邮件--- 发件人: ***@***.***> 发送时间: 2025年8月18日(周一) 晚上7:51 收件人: ***@***.***>; 抄送: ***@***.******@***.***>; 主题: Re: [dataabc/weibo-crawler] 想问下为什么微博全文内容显示不出来了呢,谢谢! (Issue #522) PippinXu left a comment (dataabc/weibo-crawler#522) 可能是被限制了,添加cookie看看,不确定是否有效。已经解决啦!谢谢! 请问这个问题是怎么解决的啊? 你好请问解决了吗,我更新了cookie也还是爬不到全文 — Reply to this email...

对,电脑重启,从新刷新,更新cookie就可以了 ------------------ 原始邮件 ------------------ 发件人: "dataabc/weibo-crawler" ***@***.***>; 发送时间: 2025年10月16日(星期四) 晚上10:28 ***@***.***>; ***@***.******@***.***>; 主题: Re: [dataabc/weibo-crawler] 想问下为什么微博全文内容显示不出来了呢,谢谢! (Issue #522) homeyi left a comment (dataabc/weibo-crawler#522) 可以刷新试试? … 遇到同样的问题,全文不显示。 请问下刷新指的是啥,将网址刷新,然后重新获取cookie再尝试吗? 请问解决这问题了吗 — Reply to this email directly,...

> 我想下载很多不同用户的微博所有内容,把他们的图片、视频都存放在一起,会出现重名情况吗?您的图片名称设计逻辑是什么呢,想知道例如20250424T_5158930091869759_1.jpg,您设置的5158930091869759是全局唯一的吗?爬虫自行生成哈希值?还是使用官方ID?非常感谢!! 上面这个问题我大概搞懂了,应该不会有重名的。ok,接下来想问咱们的爬取时间可以限定从某年几月几号到某年几月几号吗?从某天开始到现在为止的数据太多了,我想分阶段爬取呢,谢谢!

> 本程序不能,https://github.com/dataabc/weiboSpider可以,但是会漏爬微博。 好的谢谢!自己改代码爬取,有概率改成功吗