python爬虫出现超时如何处理,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。
如下所示:
#coding:utf-8
'''''
Created on 2014-7-24
@author: Administrator
'''
import urllib2
try:
url = "http://www.baidu.com"
f = urllib2.urlopen(url, timeout=0) #timeout设置超时的时间
result = f.read()
# print len(result)
print result
except Exception,e:
print 'a',str(e)
看完上述内容,你们掌握python爬虫出现超时如何处理的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注天达云行业资讯频道,感谢各位的阅读!