顯示具有 網站優化 標籤的文章。 顯示所有文章
顯示具有 網站優化 標籤的文章。 顯示所有文章

2018年10月13日 星期六

SEO基礎-網站結構優化

網站優化主要有兩大課題:

1.   網站結構優化
2.   關鍵字優化

今天主要來介紹:

SEO基礎-網站結構優化


之前提到過

SEO就是搜尋引擎優化(Search Engine Optimization)

為何要做SEO?


不外乎就是為了讓搜尋網站收錄網站,

藉以增加網站的能見度,

如同做生意一樣,

人潮多的地方,

所能聚集的商機也越好,

網站亦同,

不管是賣東西也好,

傳播訊息也好,

假設每一百個人有十個會進入瀏覽網站,

這10%固定的瀏覽量,

如果套用在成千上萬的網路人潮來看,

SEO做得好的網站,

勢必擁有較高的曝光量,

而這也同時是SEO的主要目的



如何讓搜尋引擎收錄網站內容呢?

姑且不論網站內容為何,

要讓搜尋引擎收錄內容,

就必須遵守   Spider   的運作原理,

簡單的講就是討好Spider,

所以有些妨礙Spider抓取,索引,排名網站的行為能免則免:

(這些行為不是不能做, 而是能少做就不要多做)



1.   Flash   /    Java script   連結

網站在追求美觀的時候,

使用一些Flash這沒有什麼問題,

但如果網站頁面只有大型的Flash檔而其他文字內容極少,

就會妨礙Spider索引文字資訊及其相關性,

這代表Spider在抓取該頁面時候,

必須另外費事從Flash中擷取裡面的文字內容和連結,


而Java script連結亦同,

雖說Spider能夠解析Java   script連結,

但在權重較低的網站,

Spider或許就不願意另外花時間執行腳本去追蹤連結,


能簡單扼要就不要讓Spider增加工作負擔


2.   Session   ID

當網站使用Session   ID追蹤使用者時,

會產生唯一的Session ID並加到URL,

這會導致每次Spider抓取同一頁面網站內容時,

會得到不同的URL,

若搜尋引擎能成功認出Session   ID,

當然這就不會是問題,

若否,

則會產生數個相同內容的不同URL,

而這會形成之前所提到的重複內容,

不利於網站排名

3.動態URL

資料庫驅動的網站所產生的,帶有等號問號及參數的網址,

這些URL本身就不利於Spider抓取,

能避免就避免


4.要求登入

Spider不會登入網站,

若網站內容放在一定要會員登入才能看到的區域,

這些內容將不會被搜尋引擎收錄,

原因是因為Spider不會註冊登入網站,

更不用說要帳號密碼登入才能看到的內容了






網站結構優化其實不只這些,

本文只有針對一些會妨礙Spider工作的行為做描述,

這些行為不是不能做,

而是能少做就盡量避免,


若有更好的替代方案的話,

就盡量採取對Spider有利的行為,

例如:

用cookies代替Session ID ,

利用301轉向取代Flash跳轉或Java   script跳轉,

利用CSS取代Java script來做視覺美化,




















2018年10月6日 星期六

SEO基礎-duplicate content

何謂duplicate content ?

字面上的翻譯為重複內容,

而這重複內容就是指不同網址(URL)的相同內容,

在何時會發生此種情形呢?

例如:

網站能夠在 http/https 中瀏覽,

或者能在 www/非www中瀏覽,

網站可能會使用過多動態網址參數,

這會混淆搜尋引擎,

甚至會讓AMP頁面也被算做重複內容,

這就是今天的主題:


SEO基礎-duplicate content 




Google對重複內容有底下定義:

“Duplicate content generally refers to substantive blocks of content within or across domains that either completely match other content or are appreciably similar. Mostly, this is not deceptive in origin.”

這是說,

重複內容通常指域內或跨域的實質內容,

而這些內容完全一致或者明顯相似,

大多數狀況下,

它們並不是來自於欺騙,



為何上面部分描述標記紅色呢?


這是因為當 抓取,複製,或者引用現有內容時,

Google會視為複製內容,

而部份情況下,

複製內容是為了欺騙搜尋引擎以獲得更高的排名

所以為了不使網站上面的重複內容,

讓搜尋引擎誤解為企圖欺騙或操縱搜尋結果,

可以做以下處理:


1. 避免重複內容


文章建立時,

盡量避免抓取,  複製,引用其他內容,

以避免新文章被判定為複製內容


2.   利用rel = canonical 標記將重複內容導向選定的網址

利用此標記直接告知搜尋引擎,

原創內容正確的網址,

避免搜尋引擎將原創內容判定為複製內容


3. 透過Google提供的URL參數處理工具定義如何處理

直接在Google網站管理員中,

管理URL參數


4. 透過301重新定向網址到選定的URL

透過301重新定向網址到原創內容的URL





詳細的解決方式介紹就請期待下回分解.

這邊就不多做介紹.



針對重複內容最根本的解決方式在於:

忠於原創

搜尋引擎很聰明,

能夠分辨出重複內容,

只有當文章內容為原創,

而非抓取,複製,引用的內容,

才是獲取更高的排名的最高原則.

當然,

重複內容在網路世界無處不在,

為提高網路內容的質量,

忠於原創就從本身做起