清歌
清歌
用用户名-密码自动登录的时候发现无法登录成功。 尝试手动登录,发现无论是用用户名密码还是扫码登录,登录以后只有一片灰屏的画面。 经过断点以后发现: 代码: `wait.until(EC.element_to_be_clickable((By.CLASS_NAME, 'face'))).click()` 会抛出超时异常,虽然作者在源代码中直接用: ` except: pass` 直接忽略掉错误,但是可能是由于无法成功获得登录需要的cookies,从而还是会在在后续的 `self.TestLogin()` 无法成功登录,产生报错。
前一阵子发现定时任务有时候没有按计划来执行,仔细检查程序输出日志,发现报错如下: ``` 2018-10-11 16:18:50,165 - SpiderKeeper.app - DEBUG - [sync_job_execution_status] Job "sync_job_execution_status_job (trigger: interval[0:00:05], next run at: 2018-10-11 08:18:59 UTC)" raised an exception Traceback (most recent call last): File "/usr/local/lib/python3.5/site-packages/apscheduler/executors/base.py",...
我是直接调用api来删除SpiderKeeper的项目的: ``` python for i in range(2, 19): project_delete_url = 'http://localhost:5000/project/{}/delete'.format(i) r = session.get(project_delete_url, auth=('admin','admin')) ``` 删除任务以后发现,在Docker里面Scrapyd的容器CPU占用率接近100%,而SpiderKeeper的日志出现了以下信息: ``` xecution of job "sync_spiders (trigger: interval[0:00:10], next run at: 2018-10-15 16:47:44 CST)"...
start_spider mission will always fail beacause of network problem of bug of Scrapyd, so I add a retry mechanism at function start_spider.
作者你好。我在使用jieba_fast的时候发现一个问题,就是在使用自定义词典,jieba_fast的分词结果会和jieba的分词结果有所不同。系统版本为ubuntu18.04,库的版本信息如下: ``` jieba 0.39 jieba-fast 0.53 ``` 复现代码如下: ``` python3 import jieba import jieba_fast sentence = '从一开始的不被看好到逆袭,拼多多只用了3年的时间。虽然上周的优惠券漏洞让拼多多被薅了千万羊毛,但却并未对其股价造成不利影响。25日拼多多市值报318.38亿美元,超过京东313.51亿的市值。拼多多股价周四大涨。截至收盘时,拼多多股价收于28.74美元,上涨2.07美元,涨幅达7.76%。而京东股价收于22.1美元,上涨0.13美元,涨幅为0.59%,成为中国第二大电商平台。拼多多股价在过去的半年里波动强烈:IPO定价于19美元,首日收盘价就达到26.70美元,涨幅达40.5%;之后不断下跌至17.22美元,然后就一路上涨,创造目前历史最高价30.48美元,但随后再次下跌,达到历史最低价16.53美元;此后公司股票在22美元附近震荡。拼多多股价波动强烈拼多多近日遭遇两大利空,一方面,拼多多被曝出现重大漏洞,引来大批用户“薅羊毛”,导致公司声誉和资金遭到重大损失。另一方面,拼多多股票的禁售期将于1月22日结束。届时,将有大量拼多多股东二级市场出售股票进行套现。虽然有很多人不喜欢拼多多,但是不得不说拼多多近来发展确实不错,而京东今年则比较坎坷,但在物流和服务方面还是口碑不错的。此前刘强东曾称京东和拼多多的商业模式不同。黄峥则回应称要多向电商前辈学习。' a1 = jieba.lcut(sentence, HMM=False) b1 = jieba_fast.lcut(sentence, HMM=False) print(a1==b1) jieba.set_dictionary('./word_list_nnlm_128.txt') a2 = jieba.lcut(sentence,...
I use anaconda python on windows 10 platform, install pydot by ` pip install pydot ` then install Graphviz by install package download from https://www.graphviz.org/download/. and then add the install...
跟着作者的代码一直执行到最后,在cv这一步输出的auc的确是挺高的,达到了0.79,然而当我自行分割训练集和验证集,并且用同样的模型参数训练模型时,效果却不如人意。 ``` python from sklearn.model_selection import train_test_split from sklearn.metrics import classification_report, roc_curve, auc, roc_auc_score voting = VotingClassifier(estimators = estimators, voting='soft') X_train_new, X_val, y_train_new, y_val = train_test_split(X_train,y_train,test_size=0.2,random_state=0) voting.fit(X_train_new, y_train_new) y_train_predit =...
要不你重新拉一个feature_autologin分支,我写好以后再PR给你? @yanwii
改为async/await版本的async_wget.py
### Describe the bug When loading only a subset of dataset files while the dataset's README.md contains split metadata, the system throws a NonMatchingSplitsSizesError . This prevents users from loading...