搜索

您当前位置: 首页 > 新闻中心 > 行业资讯

新闻中心

贵阳网站建设该从那几个方面优化

类别:行业资讯   发布时间:2019-07-20 17:56:23   浏览:

对于贵阳网站建设你不论你的网站是用Shopify建立的,还是Wordpress,还是Magento,要注意你的网站都要做优化

我们在讲到针对一个网站的优化,特别是站内优化的时候,其实主要包含2大方面:

是针对页面的SEO (on-page )

 另外一个是网站结构优化,也叫做技术性SEO 

由于搜索结果的竞争越来越激烈,对SEO在技术上的优化也提出了更高的要求。

一个表现良好的网站,必须要是可抓取、快速、安全的网站。

技术性SEO包含的内容很多,涵盖网站的结构设计、URL、网络地图等内容,而且是一个技术性很强的方面。

今天我主要说一说网站技术SEO的六个基本方面,做好这六大方面,网站的性能会更加优化和健康。

很多人可能看到这一章节会觉得很枯燥,但是其实是很重要的。

为什么呢?

因为一个网站,如果你花了很多时间在获取流量上,比如广告,比如红人,但是基本的文章的audit(审视)都没有过关的话,那么无形之中会大大增加你网站的营销费用。

试想一下一个2秒打开速度的网站,和一个十秒才打开的网站,那效果能一样吗?

所以从一个网站的优化角度来讲,特别是技术性优化的角度来探讨,我们要从以下几点进行优化:

贵阳网站建设该从那几个方面优化(图1)

1、贵阳网站建设首先需要确保网站可抓取

对于搜索引擎优化, 做好优质内容是必须的。但是只有优质内容还不够,如果搜索引擎抓取不到这个页面,那你辛辛苦苦编写的内容不是白费了吗?


确保网站可抓取,首先要检查robots.txt文件,这个文件是任何网络爬行软件到达站点时的第一个调用点。

robots.txt文件会明确应该被抓取的和不应该被抓取的部分,表现为允许(allow)、禁止(disallow)某些用户代理的行为。

通过将/robots.txt添加到根域末尾,可以公开使用robots.txt文件。我们看一下Hallam网站的示例:

可以看到,Hallam网站不允许以/ wp-admin(网站后端)开头的URL被抓取。通过指明哪些地方禁止这些URL,可以节省带宽、服务器资源和爬网预算。

与此同时,搜索引擎爬虫抓取网站的重要部分时,不应该受到禁止。


因为robots.txt是爬虫在抓取网站时看到的第一个文件,所以最好是将robots.txt指向站点地图。可以在旧版的Google Search Console中编辑和测试robots.txt文件。

在robots.txt的测试工具中,下面的网址栏输入任何网址,就可以检查这个网址能否被抓取,robots.txt文件中有没有错误和警告。

因为旧版的Google Search Console功能要比新版本的功能多一些,在技术SEO方面旧版本会更好用一些。

比方说,旧版本可以查看站长工具上的抓取统计信息区域(Craw Stats),对于了解网站的抓取方式会更加的方便。


2、其次检查站点可编入索引

检查爬虫是否可以抓取网站之后,还要搞清楚网站上的网页有没有编入Google索引。

有很多方法可以检查这一问题,前面用到的Google Search Console覆盖报告,就可以用来查看每个页面的状态。

还可以使用URL检查工具分析特定的URL。

如果某主页的流量有所下降,就该检查这个新加入的网站是不是已经编入索引,或者对这个网址进行问题排查。


 

相关新闻