dus
dus
或者可以修改下commit信息 数据无变化:commit信息为心跳数据 数据有变化:可以描述为某个省某个市的数据简介 这么做的好处是后续对数据进行分析比较容易。可以很容易看到数据的变化
看代码应该是每五分钟执行一次爬虫获取 然后push到仓库
我猜测是这样的 1. 爬虫每五分钟执行一次 2. 把爬取的时间和需要更新的数据写到dxy_confirmed_data.js文件中 3. push到仓库 页面直接获取js文件的数据进行展示
自己服务器 把数据push到github上
大神写的是 一个shell脚本 while循环 每300秒执行一次update.sh脚本 所有的更新数据 也就是执行python代码和把数据push到github上
2c2g的机器,配置较低 服务端 ./fus 直接运行 客户端 windows 上穿透 3389 远程桌面 用rdclient访问,估计是rdclient没有正常退出,一般都是直接切后台,程序被系统杀死。 猜测是windows上的fuc 还在服务器吐数据,数据堆积导致内存泄露了