Liên Kết

Thủ thuật seo

Thủ Thuật SEO

Chia sẻ kinh nghiệm về SEO,

Dịch Vụ Seo

Dịch Vụ SEO

Dịch vụ seo từ khóa

Giáo trình seo

Giáo trình seo

Giáo trình seo căn bản cho người mới bắt đầu

Thursday, May 9, 2013

Google e ngại về thị trường SEO mũ đen

(Dân trí) - Marketing online hay còn gọi là SEO ( Search Engine Optimization) là hình thức quảng cáo đang được nhiều doanh nghiệp quan tâm. Tuy nhiên, trên thị trường đang nảy hai khái niệm SEO black hat (mũ đen) và SEO white hat (mũ trắng).

Ông Nguyễn Khánh Trình - CEO của Clever Ads trong chuyến công tác tại Google.
 
Dân tríđã có cuộc phỏng vấn với ông Nguyễn Khánh Trình - CEO của Clever Ads, một trong những đại lý chính thức của Google tại Việt, về thị trường SEO mũ đen.

Thưa ông, giờ S.E.O là hình thức marketing được nhiều DN quan tâm. Tuy nhiên trên thị trường nảy 2 khái niệm: SEO black hat (mũ đen) và SEO white hat (mũ trắng). Ông có thể giải thích sơ qua về 2 khái niệm này?

SEO hay Search Engine Optimization là thuật ngữ dùng để chỉ việc sử dụng các thủ thuật và phương thức tối ưu nhằm tác động để nâng cao thứ hạng của website trên dụng cụ tầm. SEO chia thành 2 loại: SEO black hat và white hat hay còn gọi là SEO mũ đen và mũ trắng.

SEO mũ đen sử dụng những thủ thuật gạt gẫm dụng cụ tầm. thí dụ: đặt hàng loạt từ khóa trên website, từ khóa chìm trùng với nền website, các chữ siêu nhỏ, các website giống nhau về hình thức và nội dung… Những thủ thuật này có thể đẩy website lên Top rất nhanh, nhưng đồng thời tạo ra nhiều nguy cơ tiềm tàng.

Trái với nó là SEO mũ trắng, quan tâm đầu tiên đến tính thân thiện của website với người dùng, sử dụng các phương pháp tối ưu nhằm tăng chất lượng thực thụ của site. Cách thức này giúp website lên Top một cách kiên cố và tránh được nhiều rắc rối.

Là CEO của đối tác quảng cáo được Google đánh giá hàng đầu tại Việt Nam, ông có thể cho biết Google nhận định thế nào về SEO white hat và black hat?

Xét theo tính chất, SEO black hat nhắm đến việc gạt gẫm dụng cụ tầm. Trong khi đó, SEO white hat chú trọng đến người sử dụng. Google - với tôn chỉ luôn quan tâm đến ích của người dùng, cố nhiên không ủng hộ , thậm chí đưa ra nhiều biện pháp ngăn chặn SEO black hat. Hiện tại Google thẳng băng thay đổi giải thuật để đánh giá và xếp hạng website, tần xuất thay đổi giải thuật có thể là 2-3 tuần/lần hoặc 1 tháng/lần. Mục đích chính là để ngăn ngừa SEO black hat.

Theo thống kê của Google, giờ có một lượng rất lớn các website đang sử dụng SEO tại VN có ứng dụng cách hình thức black hat. Và sẽ thật là một thảm họa nếu Google nhất loạt ứng dụng phạt thẳng cánh với các website này.

Ông có thể nói rõ hơn về các biện pháp gì ngăn chặn SEO black hat của Google?

Bộ máy sáng dạ của Google có thể phát hiện ra SEO black hat rất chóng vánh. Khi đó, website sẽ bị đưa vào blacklist và hoàn toàn không thể xuất hiện dù bạn tầm bằng bất kỳ cách nào, thậm chí cũng không thể sử dụng Google AdWords. Bạn có thể rà soát một website có nằm trong blacklist không bằng cách dùng mức tầm: "site:www.tenwebcuaban"

Tuy nhiên, nhằm động viên chủ website đem đến thông tin chất lượng cho người dùng, Google cũng cung cấp nhiều tài liệu tham mưu chính thống về các cách tối ưu hóa website hiệu quả. CleverAds vẫn thường biên dịch các tài liệu này để hỗ trợ các khách hàng có nhu cầu cải tiến website của mình.

Cũng là một đơn vị cung cấp SEO, CleverAds có khác biệt gì để đem lại chất lượng cho khách hàng?

Mới đây, CleverAds đã ký kết thỏa thuận cộng tác với CyberAgent - Tập đoàn Internet lớn nhất Nhật Bản. Với sự cộng tác này, CleverAds đã triển khai thành công hệ thống SEO nội bộ lên tới hàng chục ngàn website. Điều này cho phép chúng tôi cung cấp dịch vụ chóng vánh, tin tức với mức phí tổn rẻ nhất,. đồng thời, trong thời gian tới, CyberAgent cũng sẽ cùng CleverAds triển khai nhiều hình thức marketing online rất mới mẻ tại Việt Nam .

Trân trọng cảm ơn ông vì các thông tin bổ ích, chúc ông và CleverAds sẽ càng ngày càng thành công hơn.

Phương Thảo

Khái niệm về Link exchange

Trong số tất cả chúng ta có lẽ ai cũng biết rằng, một trang web nếu muốn tồn tạiphát triển thì không thể tách rời khỏi thế giới Internet.  Điều đó cũng có nghĩa là bạn cần có mối liên hệ với các thành viên khác trong cộng đồng mạng. Việc này còn quan trọng hơn nữa nếu bạn muốn trang web của mình đến được với những khách hàng tiềm năng thông qua các công cụ tìm kiếm (Search Engines) như Gooogle, Yahoo , Bing … Từ đó, khái niệm Trao đổi liên kết hay Link Exchange ra đời.


Trao đổi liên kết với các trang cùng nội dung là một hoạt động yêu cầu trao đổi đường link với các website khác. Có nghĩa là sau khi trao đổi thành công, trên trang web mà bạn muốn liên kết sẽ có một đường link dẫn tới website của bạn, và ngược lại.

Đôi lúc đó là liên kết một chiều, tức là link chỉ chỏ vể site bạn mà bạn ko cần trỏ đến site của họ nhưng bạn phải trả phí để được đặt liên kết hoặc là bạn có mối quan hệ mật thiết với webmaster của website đó.


Link Exchange là một phương pháp cũ nhưng vẫn còn rất hiệu quả vì có thể giúp các bạn gia tăng PR và sự phổ biến liên kết.


Điều tốt nhất từ việc trao đổi liên kết đem lại là có thể nhanh chóng nhận được nhiều liên kết trỏ đến trang các bạn mong muốn. Nhưng lạm dụng có thể nhận một kết quả không mong muốn vì các công cụ tìm kiếm sẽ làm giảm giá trị của tất cả các liên kết hoặc đưa trang web của bạn vào Ban List nếu số lượng liên kết tăng đột ngột trong thời gian ngắn.



Vì vậy, trước khi quyết định trao đổi liên kết với bất kỳ trang nào, hãy kiểm tra cẩn thận những yếu tố sau đây:



    Nội dung trang web đó có cùng chủ đề với trang web của bạn hay không? Và tốt nhất là cùng ngôn ngữ.



    Giá trị PR hoặc lưu lượng truy cập có tương ứng với các bạn hay không?


Ghi rõ nguồn khi sao chép nội dung tại đây : Thủ Thuật SEO

Wednesday, May 8, 2013

Thế nào là BackLink Tự nhiên

Hê - Lu âu ^^

Ngày hum nay Thủ Thuật SEO   và các bạn sẽ có một cuộc thảo luận cực hót về vấn đề mà mình sắp trình bày. Chắc là thế! Tuy nhiên, trước khi bắt đầu thì mình muốn làm rõ một số vấn đề như sau:

-Vấn đề thứ nhất : Nội dung bài viết này ko phải chính tôi là tác giả, tôi đã sưu tầm nó trên internet và chia sẻ cùng các bạn. :)
- Vấn đề thứ hai: Tôi đã và đang áp dụng vấn đề này vào thực tế, và nó cũng đem lại những kết quả rất khả quan :D

OK, Chúng ta sẽ bắt đầu :-p


Chắc hẳn các bạn đã nghe nhiều về trang kết quả tự nhiên (Organic SERP) thế thì hôm nay mình xin giới thiệu với các bạn backlink "tự nhiên". Chắc sẽ có một số bạn hỏi thế nào là Backlink tự nhiên:) ok và :

Nếu các bạn hiểu tất cả các SE bao gồm cả Google đều mong muốn đem lại một kết quả chính xác nhất, tự nhiên nhất cho người sử dụng, backlink cũng thế. Thực chất Google không hề có chủ ý tạo ra khái niệm backlink, họ chỉ mong muốn một trang nào đó có nội dung hữu ích, chất lượng và được các webmaster khác copy về trang của người đó và để lại liên kết nguồn. Điều này tương tự những trang copy về "vote" cho trang có nội dung hữu ích, spider nhận thấy điều này và khẳng định trang nguồn là trang tốt nhất nên những trang khác mới copy về và xếp hạng cho trang nguồn ở vị trí cao.

Rõ ràng chúng ta không thể bác bỏ quan điểm này của Google hay các SE khác, nó quá chính xác. Mà cũng vì sự chính xác đó mới tạo ra kẽ hở cho cái gọi là backlink và các bạn cũng thấy chỉ riêng ở VN chúng ta, backlink đã trở thành "vấn nạn".

Backlink + anchor text (dĩ nhiên chứa từ khóa) đã thành [b]một kỹ năng[/b] thuần thục của SEOer; nếu 1 backlink không có anchor text (raw backlink) thì xem như backlink đó vô giá trị (ít nhất với việc gia tăng thứ hạng cho 1 từ khóa nào đó). Và bạn có nghĩ đến Google xem các backlink + anchor text quá nhiều cho một từ khóa nào đó sẽ là những "vote" giả mạo?

Cá nhân mình cũng đồng tình quan điểm này và mình nghĩ các bạn cũng không thể phủ nhận. Các bạn cứ nghĩ xem, nếu bạn thấy 1 trang hay 1 site nào đó quá hay, bạn copy 1 bài viết về trang của bạn thì bạn để backlink như thế nào? Backlink + anchor text hay raw backlink? :D Bạn đã có câu trả lời rồi nhé!

Rõ ràng chúng ta (trong đó có tôi) đang hằng ngày xây dựng hàng đống backlink (hoặc hàng đống "vote") giả mạo và đến 1 lúc nào đó chúng ta sẽ lãnh đủ cho những hành động có hệ thống của chúng ta. Nhưng chúng ta cũng không thể nào xây dựng raw backlink, vì nó chẳng mang nhiều hiệu quả cho SEO hay cụ thể là đạt được vị trí thứ hạng tốt.

Thế thì có giải pháp gì để dung hòa không?

Có đấy, tôi đã đề cập ở trên - backlink "tự nhiên".

Backlink tự nhiên là quá trình giữ nguyên giá trị của anchor text thông qua các raw backlink. Đề làm được điều này chúng ta cần tạo ra ít nhất 6 backlink nhưng chỉ dùng 2 trong số đó trỏ về landing page (trang bạn làm SEO í :)).

Bạn có thể xem hình bên dưới để hiểu rõ hơn.

Giải pháp này tại sao lại giúp chúng ta dung hòa vấn đề nêu trên?

Như hình trên bạn sẽ thấy 2 backlink chính của chúng ta sẽ nhận được các "giá trị" từ achor của các backlink khác và ngay cả khi không có anchor text (2 backlink chính) nó vẫn giữ nguyên sức mạnh của các anchor text khác (vấn đề này chúng ta phải cùng kiểm chứng!).

Bạn thấy đấy, nếu sử dụng phương pháp này chúng ta sẽ giảm tỷ lệ các backlink "giả mạo" xuống đáng kể, điều này Google chắc hẳn sẽ thích hơn.
Trên đây là những giải pháp để xác đinh BL tự nhiên, chúc các bạn thành công.

Monday, May 6, 2013

ZEBRA Thuật toán ngựa vằn

Tháng 4/201cộng đồng SEO được đón nhận thuật toán Google Panda ra đời với mục đích thanh lọc các website có nội dung rác, nội dung trùng lặp, kém chất lượng. Thuật toán này ra đời khiến các SEOer luống cuống phải nhìn nhận lại cách làm SEO của mình.
Tháng 4/2012 Google lại giáng 1 đòn chính thức đưa ra thuật toán mới Penguin nhằm xử phạt các website có dấu hiệu spam link. Thời điểm này, cộng đồng SEOer đã choáng váng trước sự thay đổi ngôi vương, những ông vua thống lĩnh vị trí top đột ngột mất hút bởi thuật toán “Chim cánh cụt” này.
Cùng thời điểm sau đó 1 năm, 4/2013 Google chuẩn bị đang rục rịch “hạ sinh” một con thú mới khiến cư dân SEO trên toàn thế giới đứng ngồi không yên. “Quái thú Ngựa Vằn” – Google Zebra, tên thuật toán mới mà Google đang trong quá trình hoàn thiện để đưa ra áp dụng tới đây, đang là chủ đê cực hot được đem ra bàn tán trên các diễn đàn SEO, khiến AE SEOer đứng ngồi k yên.
Nếu như Penguin là thuật toán về links và Panda là thuật toán về nội dung thì thuật toán Zebra lại là thuật toán về mạng xã hội (social):



Những tháng cuối năm 2012, những nhận định về xu hướng SEO cho năm tới (2013) đã cho thấy, mảng Social sẽ tăng tỷ trọng trong kế hoạch làm SEO của các SEOers.Mạng xã hội ( Social) sẽ có thêm sức mạnh trong việc quyết định bạn thắng hay thua. Cũng chính từ việc xác định được tầm quan trọng của Social, các anh em SEOers đã chú trọng hơn nhiều vào mảng này, và kết quả đáng ngạc nhiên từ Social mang tới lại càng khiến mọi người tập trung hơn vào nó, bằng mọi giá khai thác triệt để mạng xã hội 1 cách vô tội vạ khiến Social trở thành 1 thùng rác link và 1 mớ hỗn độn cần phải thanh lọc. Đó là lý do vì sao “quái thú ngựa vằn” phải xuất hiện. Vậy Google Zebra sẽ làm gì?



Cụ thể thì vẫn cần đợi những công bố chính thức từ Google. Chỉ biết rằng, những hành động hiện nay các SEOers đang làm dễ dàng thấy được là spam như:
-  Bạn share trên tường lặp đi lặp lại 1 liên kết mà không có nội dung.
- Tường nhà bạn chỉ toàn link mà không có nội dung hữu ích cho người dùng: Tôi chắc chắn một điều, có rất nhiều bạn đang biến mạng xã hội của mình thành 1 thùng rác link. Và khó có thể nói rằng chú Ngựa Vằn hiền lành kia sẽ không làm hại bạn.
-  Bạn share trên tường lặp đi lặp lại 1 liên kết và quanh nó là các từ khóa mà bạn SEO.
- Có quá nhiều người share nhưng những người đó không cùng ngành mà bạn đang SEO (do bạn kêu gọi, hô hào share mà không phải việc lan truyền tự nhiên).
Hãy nhìn lại mô hình lan truyền dưới đây để phân biệt đâu là mô hình share spam và đâu là mô hình share do lan truyền tự nhiên nhé.

Ghi rõ nguồn Thủ Thuật SEO khi  sao chép bất kì nội dung tại đây

Nội dung website của bạn đã chuẩn với bộ máy tìm kiếm Google chưa

Hiện tại nếu cácWebmaster tuân thủ đúng vs chuẩn của GG sẽ giúp Google tìm kiếm, lập chỉ mục và xếp hạng website của bạn. Thậm chí, nếu bạn không ứng dụng bất kể gợi ý dưới đây thì Google vẫn kiến nghị bạn nên quan tâm nhiều đến “Chỉ dẫn chất lượng”. Chỉ dẫn chất lượng chỉ ra các thủ thuật không hợp lệ mà có thể khiến cho Website của bạn bị loại bỏ khỏi chỉ mục của Google hoặc các hình thức phạt khác. Nếu không may bạn ko tuân thủ các điều kiện dưới thì việc site của bạn bị loại bỏ ra khỏi công cụ tìm kiếm GG là rất cao, thế nên bạn nên đọc bài viết này để biết đc mình đã làm những gì và cần làm những gì nhé ^^

Khi site của bạn đã sẵn sàng

  • Có các liên kết tin cậy từ Website khác trỏ đến trang của bạn;
  • Đăng ký Website của bạn với Google tại địa chỉ : http://www.google.com/addurl.html;
  • Đăng ký Sitemap XML trong phần Google Webmaster Tools. Google sử dụng Sitemap XML của bạn để tìm hiểu cấu trúc website của bạn và để tăng tốc độ tiếp cận các trang web của bạn;
  • Đảm bảo rằng tất cả các site quan tâm đến các trang site của bạn đều biết rằng Website của bạn đã online;
  • Đăng ký Website của bạn đến các danh bạ Web liên quan như Open Directory Project và Yahoo!, cũng như các site chuyên ngành khác.

Chỉ dẫn thiết kế và nội dung

  • Tạo site với cấu trúc rõ ràng và liên kết bằng ký tự truyền thống (text link khác với liên kết ảnh, javascripts hay bằng Flash). Mọi trang nên có thể truy cập qua ít nhất một liên kết ký tự tĩnh;
  • Cung cấp một trang sitemap HTML (sơ đồ Website) đến người dùng thường trỏ đến những phần quan trọng của site. Nếu sơ đồ Website chứa hơn 100 đường liên kết, bạn nên chia nó thành nhiều trang riêng biệt;
  • Tạo website hữu ích, giàu thông tin. Hãy viết các trang rõ ràng và miêu tả chính xác nội dung;
  • Nghĩ về các từ khoá mà người dùng sẽ gõ vào để tìm trang web của bạn, và đảm bảo các từ đó xuất hiện trong trang web;
  • Cố gắng sử dụng từ ngữ thay cho hình ảnh để hiện thị các tên, nội dung hay liên kết quan trọng. Bọ tìm kiếm Google không thể nhận dạng nội dung văn bản chứa trong hình ảnh;
  • Đảm bảo rằng thẻ TITLE và thuộc tính ALT cung cấp thông tin miêu tả chinh xác;
  • Kiểm tra các liên kết hỏng và chỉnh sửa mã nguồn HTML;
  • Nếu bạn sử dụng các trang Web động (đó là, địa chỉ URL chứa đựng dấu “?”), bạn phải biết rằng không phải các máy tìm kiếm nào cũng sẽ đánh chỉ số tốt các Website động như chúng làm được với các Website tĩnh. Trong trường hợp này bạn nên đặt tên các tham số ngắn gọn và giới hạn số lượng của chúng;
  • Đặt một số lượng đường liên kết hợp lý trên mỗi trang (ít hơn 100 liên kết).

Chỉ dẫn công nghệ

  • Sử dụng trình duyệt văn bản (Text Browser khác với các trình duyệt đồ họa) như Lynx, để kiểm thẩm định site của bạn bởi hầu hết các bọ tìm kiếm nhìn thấy site của bạn giống như Lynx. Nếu các ứng dụng đặc biệt như như javascript, cookies, session IDs, frame, DHTML, hoặc Flash khiến cho bạn không thể hiển thị nội dung toàn website của bạn trong tình duyệt văn bản này thì chắc chắn các bọ tìm kiếm sẽ gặp vấn đề trong việc quyét site của bạn.
  • Cho phép các bọ tìm kiếm truy quyét site của bạn mà không phải sử dụng session IDs hoặc tham biến theo dõi đường truy cập của các con bọ trên Website. Những công nghệ này hữu dụng cho việc theo dõi thói quen sử dụng của người dùng thường, còn cơ chế hoạt động của các bọ tìm kiếm thì lại hoàn toàn khác. Sử dụng các kỹ thuật trên có thể khiến Website của bạn không được đánh chỉ số hoàn toàn bởi bọ tìm kiếm không có khả năng tự loại bỏ các tham số khiến các đường dẫn URLs khác nhau nhưng lại trỏ về cùng một trang.
  • Đảm bảo rằng máy chủ web hỗ trợ tính năng If-Modified-Since HTTP header. Tính năng này cho phép máy chủ web của bạn nói với Google liệu nội dung của bạn đã thay đổi chưa kể từ lần cuối cùng Google quét site của bạn. Hỗ trợ tính năng này giúp tiết kiệm băng thông và tránh gây quá tải máy chủ.
  • Sử dụng tệp tin loại trừ robots.txt trên site của bạn. Tệp tin này cho máy dò tìm biết thư mục nào được hoặc không được phép quyét tìm. Chắc rằng tệp tin loạii trừ hiện tại trên website của bạn không bị sử dụng sai, vô tình chặn các bọ tìm kiếm Googlebot. Bạn có thể kiểm tra tệp tin robots.txt của bạn để chắc rằng bạn sử dụng đúng với công cụ phân tích robots.txt tại Google Webmaster Tools ;
  • Nếu bạn sử dụng một hệ thống quản trị nội dung CMS, hãy chắc rằng hệ thống có thể xuất nội dung sao cho bọ tìm kiếm có thể quét site của bạn.
  • Hãy sử dụng tệp tin loại trừ robots.txt để ngăn việc đánh chỉ số các trang kết quả tìm kiếm hoặc các trang tự tạo nội dung mà không có giá trị cho người dùng đến từ các máy tìm kiếm.

Chỉ dẫn chất lượng

Những chỉ dẫn chất lượng sẽ đề cập dưới đây chỉ gồm hình thức miêu tả hoặc thực hành chung nhất, nhưng Google có thể có phản ứng chống lại những vận dụng không hợp lệ dù không được liệt kê ở đây (ví dụ, việc lừa dối người dùng đăng ký nhầm vào các website giả mạo trang nổi tiếng do gõ nhầm). Sẽ không thận trọng nếu viện cớ điều đó chỉ bởi vì một kỹ thuật gian trá nào đó không được trích trong chỉ dẫn này. Google phê chuẩn chỉ dẫn này. Quản trị Website sử dụng năng lực của họ tuân theo các qui tắc cơ bản sẽ cung cấp nhiều kinh nghiệm hơn cho người dùng và kết cục sẽ xếp thứ hạng cao hơn những người chỉ dùng thời gian của mình vào việc dò tìm các lỗ hổng để khai thác.
Nếu bạn tin rằng một trang web nào khác lạm dụng chỉ dẫn chất lượng của Google, hãy thông báo tại Google’s Spam Report. Google ưu tiên phát triển các giải pháp bền vững và tự động cho các vấn đề bạn vừa thông báo nên Google sẽ nỗ lực giảm các xử lý thủ công trong cuộc chiến chống spam.

Các chỉ dẫn chất lượng cơ bản

  • Tạo trang web vì người dùng thường, không phải cho các máy tìm kiếm. Đừng làm thất vọng người dùng hoặc hiển một nội dung cho máy tìm kiếm khác với nội dung hiển thị cho người dùng, kỹ xảo này được biết đến dưới tên gọi là “cloaking” (che đậy);
  • Tránh các tiểu xảo nhằm tăng thứ hạng trên máy tìm kiếm. Một câu hỏi kiểm tra có ích là “Điều này giúp người dùng không ? Liệu tôi phải làm gì nếu như máy tìm kiếm không tồn tại “;
  • Không tham gia vào các chương trình trao đổi liên kết để tăng thứ hạng hay chỉ số PageRank site của bạn. Đặc biệt, tránh liên kết đến site spam hoặc tới “những người láng giềng tồi” bởi thứ hạng của chính website của bạn sẽ bị ảnh hưởng ngược lại từ các liên kết này;
  • Không sử dụng các chương trình máy tính để đăng ký trang, kiểm tra thứ hạng, v.v. Những chương trình này hao tốn tài nguôn và vi phạm điều khoản sử dụng. Google không khuyến khích việc sử dụng các sản phẩm như WebPosition Gold gửi truy vấn tự động và lập trình tới Google.

Chỉ dẫn chất lượng đặc biệt

  • Tránh sử dụng nội dung ẩn hay liên kết ẩn;
  • Không sử dụng kỹ thuật che đậy cloaking hay chuyển hướng sneaky;
  • Không gửi các truy vấn tự động tới Google;
  • Không tạo trang với các từ khóa không liên quan tới nội dung;
  • Không tạo các nhiều trang, các tên miền con hay tên miền với nội dung trùng lặp;
  • Không tạo trang với các mã độc ví dụ như lừa đảo phishing hay cài đặt virus, trojans hay gián điệp;
  • Tránh tạo các trang sau, trang chỉ cho máy timf kiếm hoặc các chương trình liên kết ít hoặc không có nội dung độc đáo;
  • Nếu bạn tham gia vào một chương trình liên kết, hãy đảm bảo rằng trang của bạn tăng thêm giá trí. Cung cấp nội dung độc nhất và có liên quan sao cho người dùng có lý do quay lại ghé thăm trang.
Nếu website của bạn, chưa đạt hay chưa đúng vs các yêu cầu trên, mình khuyên bạn nên xem lại và bổ sung thêm những cái mình chưa làm để chuẩn hóa hơn việc tìm kiếm trên Google. Bài viết còn nhiều lỗi mong các bạn bỏ qua nhé ^^.

Sao lưu hay copy bài nhớ để nguồn Thủ Thuật SEO GaPro.Net nhé
 

Saturday, May 4, 2013

Những Thủ Thuật thoát khỏi Google Panda

Seroundtable.com trang hướng dẫn về các thủ thuật SEO đã có khá nhiều bài hướng dẫn việc tối ưu website để tương thích hơn với Google Panda nhưng họ viết bằng tiếng anh. Nếu có nhiều thời gian bạn có thể xem và đọc tại đó. Ngoài ra, bạn có thể tham khảo thêm tại diễn đàn webmaster world cũng có những chủ đề dành cho các webmasters chia sẽ kinh nghiệm cho việc phục hồi website từ Google Panda. Các bạn có thể theo dõi chủ đề đó tại đó. Ninh Tuệ đã tổng hợp lại các thủ thuật từ chủ đề đó mặc dù không thể xác minh được là những điều này có thật sự đúng và giúp ích được cho bạn hay không. Tuy nhiên, bạn có thể tham khảo những bước dưới đây là những thủ thuật có thể là một gợi ý cho bạn giúp bạn thoát khỏi Google Panda.



1. Increase spider crawl rates: Tăng lượng duyệt trang của Google bot vào site của bạn, việc này sẽ giúp cho site của bạn được đánh giá nhanh hơn để có thể thoát khỏi Google Panda sớm hơn. Tuy nhiên bạn cần phải tìm hiểu và chỉnh sửa những lỗi SEO của site mình trước khi tăng.·    
2. Add links to deeper pages: Thêm những liên kết đến các trang sâu, rất nhiều trang nội dung cũ của bạn có thể bị xóa bởi Google Panda và Google khó có thể tiếp cận trang này do nó nằm quá sâu để có thể cập nhật lại index cho bạn. Do đó việc thêm liên kết các trang cũ này sẽ giúp cho bot dễ dàng tiếp cận và reindex cho bạn.·          
3. Removed low content pages: câu này hơi có vẻ khó hiểu và tối nghĩa, tuy nhiên bạn nên xóa những trang có chất lượng thấp và cảm thấy không cần thiết đi. 
4. Blocked spiders from low-value pages: Chặn bot đối với những trang có giá trị thấp, mục đích của vấn đề này cũng tương tự như thủ thuật ở trên. Ngoài ra cũng làm cho bot đỡ tốn thời gian cho những trang không cần thiết.
5. Cleaned up webmaster tools errors: Trong Google Webmaster Tools có phần HTML Suggestions và Crawl errors nằm trong mục Diagnostics, các bạn cần nghiên cứu những cài này và chỉnh sửa lại website của mình với những errors và gợi ý.
6. Improved basic on page SEO details: Tập trung vào những kiến thức Onpage SEO cơ bản. Google có chia sẽ những hướng dẫn SEO website cơ bản cho người mới bắt đầu. Mặc dù chỉ là những vấn đề cơ bản nhưng nó khá quan trọng và không phải ai làm SEO cũng đều thỏa mãn các tiêu chí cơ bản mà Google đưa ra.
7. Restructured site architecture: Cấu trúc lại hệ thống website của bạn một mặt để tạo tính tương tác cao hơn cho người dùng, làm tăng chất lượng website, một mặt cũng làm cho bot dễ dàng tiếp cận các thông tin trên website của bạn hơn.
8. Reduced adding new content: Giảm việc thêm nội dung quá nhiều trong một thời gian ngắn. Bởi vì một khi Google bot đã đánh giá thấp website của bạn thì lượng bot cập nhật nội dung website của bạn cũng sẽ giảm đi. Do đó việc thêm nhiều nội dung có thể làm phí thời gian, thay vì bạn tập trung hơn vào việc khắc phục các lỗi giống như lời khuyên kế tiếp
9. Did nothing at all and recovered: Không làm gì cả, tập trung vào việc khắc phục các lỗi để phục hồi lại website của bạn trên Google.
10. many more tips in the thread: Các bạn có thể tham khảo thêm nhiều thủ thuật nữa trong chủ đề ở trên trong diễn đàn Webmaster World.
Với những thủ thuật (tips) chia sẽ ở trên trang  Barry Schwartz cho rằng những điều này không làm hại website của bạn, vì thế bạn cứ áp dụng mà không phải lo gì cả.
Ngoài ra, tham khảo một số thông tin trên mạng, một số chuyên gia ở nước ngoài cũng gợi ý cách khắc phục Google Panda bằng việc sử dụng subdomain (tên miền con). Bạn hãy xem xét lại website của mình và phân loại lại thông tin đồng thời chia ra thành các subdomain phù hợp. Bởi vì với subdomain Google có thể sẽ xem như một tên miền mới và đánh giá lại website của bạn. Hoặc bạn cũng có thể chuyển tất cả những nội dung kém chất lượng qua một subdomain khác.
Hi vọng bài viết này có thể phần nào giúp được bạn thoát khỏi ám ảnh của Google Panda.

Thursday, May 2, 2013

Submit URL bằng tính năng Fetch as Googlebot

Hiện tại google đang làm rất tốt về việc theo dõi các trang web mới ,nó có rất nhiều cách mà các webmaster submit URL của họ để các công cụ tìm kiếm thu thập dữ liệu và đánh chỉ số website của họ.Mới đây Google đã bổ sung thêm tính năng submit URL thông qua : Fetch as Googlebot .

 

Nếu bạn là người hay sử dụng và quen thuộc cách tính năng của Google thì bạn cũng biết Fetch as Googlebot đã được gần 2 năm tuổi, webmaster có thể sử dụng Fetch as Googlebot thông qua Google Webmaster Tools .Bạn hãy cho Fetch as Googlebot thu thập dữ liệu của một URL cụ thể trên trang web mà bạn đã xách minh với Google Webmaster Tools và bạn sẽ nhìn thấy trang web của mình theo cách của Google nhìn website bạn .Điều này thật sự rất tốt cho việc tìm và gỡ lỗi, các vấn đề mà trang web không hiển thị, nếu bạn nhìn vào trang web của mình chỉ thông qua trình duyệt web thì bạn sẽ không biết được các các lỗi xảy ra.
Bây giờ Fetch as Googlebot giúp cho bạn thêm con đường để submit URL.Nếu nó thành công lấy URL của bạn, bạn có thể yêu cầu Google index nó bằng cách click vào : “Submit to index”.Bạn sẽ không làm điều này với mọi trang của website mà hãy giới hạn những điểm quan trọng nào cần xem xét, nó rất tuyệt vời với tùy chọn bổ sung này.
Một điểm quan trọng cần chú ý là bạn chỉ có thể sumit 50 pages 1 tuần.Bạn có thể submit tất cả các trang liên kết từ ULR bạn đang submit nhưng bạn chỉ có thể làm điều này 10 lần trong 1 tháng.Ngoài ra Google cũng thông báo chú ý cho việc submit hình ảnh hay video thì bạn nên sử dụng Sitemap là cách tốt nhất chứ không phải Fetch as Googlebot .
Bạn cũng lưu ý rằng việc submit 1 URL theo cách này không có nghĩa là Google chắc chắn sẽ đặt các trong chỉ mục của nó.Theo như Google đã nói về vấn đề này : “Chúng tôi không đảm bảo rằng tất cả các URL được gửi theo cách này sẽ được lập chỉ mục, chúng tôi vẫn sử dụng các quy trình thường xuyên của chúng tôi – các cách mà chúng tôi sử dụng để tìm kiếm URL – để đánh giá URL có nằm trong chỉ mục của chúng tôi hay không”
Mặt khác, sử dụng Fetch as Googlebot làm tăng tốc độ quá trình thu thập thông tin các URL của bạn,Google sẽ làm nó trong vòng 1 ngày sau khi bạn submit.Nó là điều giá trị để nhớ rằng không phải mọi thứ Google thu thập được đi vào mục chỉ số của nó và không phải tất cả các URL mà Google biết được thu thập thông tin ngay lập tức.
Nếu bạn muốn tận dụng lợi thế của phương pháp mới này để submit các URL trong trang web của bạn để Google thu thập thông tin và đứng trong danh sách chỉ mục của nó thì tốt nhất bạn nên sử dụng nó với các url mới hoặc một chuyên mục nào đấy trên trang web của bạn.Nếu bạn đang có sự thay đổi lớn hoặc cập nhật lớn về web của mình thì Fetch Googlebot cũng phục vụ nhu cầu của bạn để có được sự chú ý của Google một cách nhanh chóng .Điều này cũng giúp ban tăng tốc độ gỡ bỏ URL sai và cập nhật cache.
Bạn có thể sử dụng Fetch as Googlebot như một phần trong chiến dịch quảng bá trang web của bạn và nâng cao nhận thức của doanh nghiệp bạn .Google lưu ý rằng : “Bạn cũng có thể submit các URL đã được lập chỉ mục để làm mới chúng, nếu bạn cập nhật một số nội dung chính trong sự kiện diễn ra vào cuối tuần này và bạn muốn chúng tôi nhìn thấy nó trong thời gian sớm nhất.”Bạn có thể sử dụng điều này để cho khách viếng thăm trang web của bạn vui vẻ và tránh được sự tức giận của họ vì nếu họ biết đến sự kiện bạn muốn tổ chức sau khi bạn đã tổ chức xong.
Fetch as Googlebot chỉ là tính năng bổ sung và là một trong những con đường để submit URL,chúng tôi khuyên bạn vẫn nên sử dụng sitemap là tốt nhất.

Nguồn : Ninh Tuệ Blog