PHPDisk网盘官方论坛

 找回密码
 立即注册
网盘分享动态:
E-Core企业网盘系统v4.0试用版(2024年)官方论坛版主招募啦~期待您的加入PHPDisk 7.0 V-Core系列发布[下载]
招聘团队,开发phpdisk项目【有兴趣即可加入】phpdisk新版本 Windows客户端软件详尽~PHPDisk 模板制作教程
PHPDISK网盘专用探针 V2.1 PHPDisk插件开发教程PHPDisk交流Q群,加入->
查看: 2211|回复: 3

[已解决] 管理员,再请教个问题。关于页面收录的

[复制链接]

已分享文件:0个

网盘今日赚:积分

发表于 2012-5-7 17:18:33 | 显示全部楼层 |阅读模式
本帖最后由 鬼马 于 2012-5-7 18:39 编辑

管理员大大,首先感谢您回复我之前的一个问题反馈。

现在呢,我在测试的过程中发现另外个问题,简单的描述呢就是发布一个文档,会被搜索引擎收录两个页面
a、http://www.xxx.com/file-id.html 这个是正常的页面
b、http://www.xxx.com/downfile-id-aPVFvGnJ.html  这个文档下载页面。

前者呢,点进去则是正常展示的页面,访客通过搜索引擎进去之后点击文件下载,然后获得相应的文件。在这一过程中访客的行为会影响网站的PV以及广告点击等等,这些呢带来些什么就暂且不表了,反正正是我们所需要的。

后者呢,进去则是文档下载,直接弹出对话框下载文件了。空空的浪费了流量,满足了访客的需求。却加大了网站的运营压力,而网站本身来说基本是一点好处都没。最致命的是:因为文件格式基本是TXT、WORD、PDF等格式,本身的权重就比HTML页面要高,排名永远都是在前面。另外个问题就是正常情况下啊这两者的标题都一样,但URL不一样,这在一定程度上也影响了搜索引擎对于站点内容的认可度。

截图举例给大家看看啊

1.jpg

管理员大大,有没有办法解决这个问题呢?非常非常的感谢啊。

已分享文件:20个

网盘今日赚:积分

发表于 2012-5-8 15:58:13 | 显示全部楼层
只能阻止搜索引擎访问某些页面

已分享文件:0个

网盘今日赚:积分

 楼主| 发表于 2012-5-8 16:27:01 | 显示全部楼层
along 发表于 2012-5-8 15:58
只能阻止搜索引擎访问某些页面

可以在robots文件里阻止搜索引擎访问某些目录,比如filestores下的所有文件,防止盗链,尤其是类似与百度音乐这样的霸道玩意的盗链。

但是我上面所提的URL是无法阻止的,因为那样的的地址的确是在页面上存在的,由文章的ID及提取码组成的URL就是直接提取相应的文件了。即使是使用V版隐藏文件的真实目录及文件名的,但同样也是存在一个URL地址是用于提取文件的(这话太乱,不知道能不能看懂,哈哈)

我想,管理员大大,应该有办法解决这个问题,只是不知道能不能实现

就是将下载的PHP文件融合到文章页面,在下载处改成文件提取,即设计一下载验证输入框,旁边是验证码(实际上为提取码),访客手动输入验证码之后点击下载即可。

这样在整个文章页面实际上并没有出现包含ID及提取码的URL链接,这样搜索引擎也就无从抓取那样的页面。


唉。。。话说得很乱。。。不知道能不能看明白。

不过这个问题的确是比较干扰的问题,不解决的话,我想很难解决搜索引擎收录下载URL地址。

已分享文件:20个

网盘今日赚:积分

发表于 2012-5-9 11:25:11 | 显示全部楼层
在robots.txt上添加不行,会暴露网站目录,安全方面不行

点评

.htacess文件呢?  发表于 2012-5-12 00:11
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /1 下一条

小黑屋|Archiver|手机版|PHPDisk官方论坛 ( 粤ICP备10073657号 )

GMT+8, 2024-4-28 18:45 , Processed in 0.059643 second(s), 30 queries .

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表