本篇内容主要讲解“php爬虫怎么添加代理进行访问”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“php爬虫怎么添加代理进行访问”吧!
在使用python对网页进行多次快速爬取的时候,访问次数过于频繁,服务器不会考虑User-Agent的信息,会直接把你视为爬虫,从而过滤掉,拒绝你的访问,在这种时候就需要设置代理,我们可以给proxies属性设置一个代理的IP地址,代码如下:
<?php
// 要访问的目标页面
$url =
"http://httpbin.org/ip";
$urls =
"https://httpbin.org/ip";
// 代理服务器
define("PROXY_SERVER",
"tcp://t.16yun.cn:31111");
// 隧道身份信息
define("PROXY_USER",
"16YUN123");
define("PROXY_PASS",
"123456");
$proxyAuth =
base64_encode(PROXY_USER .
":" .
PROXY_PASS);
// 设置 Proxy tunnel
$tunnel =
rand(1,10000);
$headers =
implode("\r\n", [
"Proxy-Authorization: Basic
{$proxyAuth}",
"Proxy-Tunnel:
${tunnel}",
]);
$sniServer =
parse_url($urls,
PHP_URL_HOST);
$options = [
"http" => [
"proxy" =>
PROXY_SERVER,
"header" =>
$headers,
"method" =>
"GET",
'request_fulluri' =>
true,
],
'ssl' =>
array(
'SNI_enabled' =>
true,
// Disable SNI for https over http proxies
'SNI_server_name' =>
$sniServer
)
];
print($url);
$context =
stream_context_create($options);
$result =
file_get_contents($url,
false,
$context);
var_dump($result);
// 访问 HTTPS 页面
print($urls);
$context =
stream_context_create($options);
$result =
file_get_contents($urls,
false,
$context);
var_dump($result);?>
在代码中的目标网站是检测代理是否访问成功,如果访问成功就会返回代理ip,如果代理返回
异常有可能是代理的配置没有正确,那就需要对配置的代理信息进行检查。
到此,相信大家对“php爬虫怎么添加代理进行访问”有了更深的了解,不妨来实际操作一番吧!这里是天达云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!