首页 SEO案例正文

seo案例,培训第二课,解读零距离泛目录源码!

最近很多站长们被零距离泛目录源码给沸腾了,36D哥也收到了大佬第一时间的源码,今天无聊一起分析玩玩。


一、看前思考问题

1、你看到了这么多零距离泛目录做的站,看到变现方式了么?

2、经常有小伙伴发零距离泛目录站,你持续观察过生存周期么?

3、变现角度分析,这次最大的赢家是谁,是卖程序、还是变现呢?


二、开始一起解读

1、老玉米,毋庸置疑老玉米是必不可少的,域名选择历史中文建站记录,无X、S词记录,外链多优先等等,不说太多了。

2、关键词,本人无聊采集了几个案例站的关键词,都是一些低热度低搜索量的词,而且大长尾是主力

3、内容的话不用说太多,一看就知道了

4、泛目录,生成大量二级域名。


三、源码解读分析开始

1、解读Spider.php文件,看名字就知道跟蜘蛛有关

function rand_str($length = 5)  #
{
	$str    = '';
	$strPol = "ABCDEFGHIJKLMNOPQRSTUVWXYZ0123456789abcdefghijklmnopqrstuvwxyz";
	$max    = strlen($strPol)-1;

	for($i = 0; $i < $length; $i++)
	{
		$str   .=$strPol[rand(0,$max)];
	}

   return $str;
}

$count = 2000;
$urls = array();
for ($i = 0; $i < $count; $i++) 
{ 
	$urls[] = "http://{$server_name}/news/".rand_str().'/'.rand_str().'.html';
}

$api = "http://data.zz.baidu.com/urls?site={$server_name}&token=XXXXXXXXXXX";

$ch = curl_init();
$options =  array(
    CURLOPT_URL => $api,
    CURLOPT_POST => true,
    CURLOPT_RETURNTRANSFER => true,
    CURLOPT_POSTFIELDS => implode("\n", $urls),
    CURLOPT_HTTPHEADER => array('Content-Type: text/plain'),
);
curl_setopt_array($ch, $options);
$result = curl_exec($ch);
echo $result;

以上代码应该是程序的核心,解决收录问题得方法


看一下URL组成

$urls[] = "
分解开 
 $urls[]  负责存URL的,狠简单
 $server_name} 网址
 rand_str()    随便生成字符
 function rand_str($length = 5) 这个就是负责随机生成病情控制长度的
 
  构造一个URL了
网上随便找了一个站 对比URLhttp://dianziyansejyq5.jule0.cn/mpc/3a99DlX.php/3042820Ia7U.xml
api = " 

$server_name} 替换自己网址

token=XXXXXXXXXXX"; 换成自己的 然后就疯狂的提交吧


研究到URL刚好测试了一下,发现更改URL后面参数随便更改都页面内容页跟着变动,36D哥打码后来才发现只要刷新就展现不同内容,可以看下图,实现这种刷新变内容很简单百度都有教程

image.png


image.png


看完图有好奇心的,可以百度快照看看URL有没有什么规律。


2、解读sitemap.php文件,这个没必要多说了,直接看图


发现一个问题include 'bot/bot.php'缺少文件,不知道是不是官方也没有,哪搬来的代码


image.png


image.png


3、mip.php文件解读

image.png

打开两个图

function rand_str($length = 5)
{
	$str    = '';
	$strPol = "ABCDEFGHIJKLMNOPQRSTUVWXYZ0123456789abcdefghijklmnopqrstuvwxyz";
	$max    = strlen($strPol)-1;

	for($i = 0; $i < $length; $i++)
	{
		$str   .=$strPol[rand(0,$max)];
	}

   return $str;
}

$count = 100;
$urls = array();
for ($i = 0; $i < $count; $i++) 
{ 
	$urls[] = "http://{$server_name}/appzzc/".rand_str().'/'.rand_str().'.html';
}

$api = "http://data.zz.baidu.com/urls?site={$server_name}&token=xxxxxxx&type=mip";

$ch = curl_init();
$options =  array(
    CURLOPT_URL => $api,
    CURLOPT_POST => true,
    CURLOPT_RETURNTRANSFER => true,
    CURLOPT_POSTFIELDS => implode("\n", $urls),
    CURLOPT_HTTPHEADER => array('Content-Type: text/plain'),
);
curl_setopt_array($ch, $options);
$result = curl_exec($ch);
echo $result;

除了token其他都没变过,跟刚开始介绍有一点不同就是api后面type=mip" 是mip,又是提交数据

没啥说的继续下看

4、核心文件index.php解读

image.png


通过上图可以看出ljlseo文件里存放的都是重要内容了,我们先分析一下首页模板

路径/ljlseo/templates/shouye/index.html

image.png

image.png


页面所有带连接的地方,都是一个字段+随机字符.html组合的成url,随机字符说明全站无任何关联,根据上面分析,刷新就是新内容URL也是新的,然后提交百度也是随机的,各位小伙伴总结一下,百度二级域名可以提交数量多少自己百度一下,比如200万条,那就是随机生成标题+随机内容,产生大量页面,就看内容质量和收录率了。


image.png


这么多人内容不可能都是同一天,所以在发布的时候,对时间进行了修改减几天,这样生成的内容时间问题也解决了。


总结一下:

1、老玉米必用,不然有程序收录都是问题

2、利用百度二级域名提交漏洞,大量提交,因为大家可能看到主域提交限制数量,没考虑到二级域名,百度提交总量=二级域名数量*单二级提交次数

3、程序简单,全部内容随机生成,创造无数随机页面,可达亿级页面,可百度推送、可蜘蛛池,

4、持久力问题,有待考核,长久战慎用

5、变现能力,这么多案例站,真正变现在哪,所以36D哥对此程序无兴趣。


最后各位还在奋斗SEO一线的老哥,且行且珍惜,学学真正的技术,有各位老铁想交流的加我QQ:3042820(如果有黑帽案例发给我,这是对我最大的支持了)


原创文章:转摘请注明出处


版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论

精彩评论
  • 2019-10-04 14:08:14

    自己给自己顶一下

  • 2019-10-04 14:08:16

    自己给自己顶一下

  • 2019-10-04 14:08:16

    自己给自己顶一下

  • 2019-10-04 14:08:16

    自己给自己顶一下