Thuật toán SEO 2012

Trong năm 2012, cộng đồng SEO đã chứng kiến rất nhiều sự thay đổi từ các thuật toán của Google có ảnh hưởng và tác động mạnh mẽ đến SEO.

Danh tiếng & độ tin tưởng của website

Hai từ mà chúng ta thường xuyên được nghe và nhắc tới trong năm nay đó là uy tín và sự tin tưởng của website trên Google. Chúng ta đang nói về độ tin cậy của nội dung, của thiết kế, và các liên kết bên ngoài tới website. Dường như cùng một lúc, Google và các công cụ tìm kiếm khác cùng thúc đẩy và quan tâm tới chất lượng của website về nội dung, về các liên kết tới website đồng thời chỉ trích mạnh mẽ các thủ thuật làm ảnh hưởng tới kết quả tìm kiếm, những thay đổi đó nhằm kiểm soát được các hành vi xấu hiệu quả hơn và rộng rãi hơn.


Google Gets Vocal

Trong quá khứ, Google luôn né tránh việc thông báo về các lĩnh vực dùng hành vi xấu đói với họ thông qua Công cụ quản trị trang web (Google Webmaster Tools). Điều này bắt đầu thay đổi vào tháng 4 khi các công cụ tìm kiếm mở rộng các loại tin nhắn và cảnh báo tới Google về các hành vi xấu. Google Webmaster Tools gửi tin nhắn đến chủ sở hữu tên miền, nó đã gửi hơn 700.000 tin nhắn thông qua công cụ quản trị trang web trong hai tháng.


Thuật toán Penguin

Google đã giới thiệu Penguin vào ngày 24 tháng 4. Penguin phạt những trang web có dấu hiệu spam liên kết đến website. Khi nói đến việc phục hồi, Google dường như kiên quyết rằng các trang web phải thực hiện một nỗ lực toàn diện để loại bỏ tất cả các liên kết không chất lượng cho dù trang web trước đó như thế nào. Google đã cung cấp một công cụ từ chối và gỡ bỏ liên kết nhưng nó sử dụng như một lời đề nghị gỡ bỏ chứ không phải là một giải pháp có tác động nhanh chóng và tức thì. Ngay cả với việc không nhận liên kết xấu từ bên ngoài thông qua công cụ này, Google không vội vàng để khôi phục lại trạng thái tốt nhất của một trang web trước khi bị phạt mà nó chờ đợi cho đến khi nó recrawls và đưa lại các URL mà bạn loại bỏ trước khi hành động. Thời gian đó có thể là một tuần hay một vài tháng giữa các lần để bot của Google vào trang sâu hơn hoặc chất lượng thấp hơn để đánh giá. Cuối cùng, chúng ta thấy không có bất cứ thay đổi nào trong tuyên bố của Google với việc khôi phục thứ hạng của trang web như Matts đã nói :D

Điều đáng chú ý ở đây, Google đã bỏ qua liên kết không tin tưởng và cho rằng webmaster dùng các thủ thuật để Spam liên kết, tuy vậy thực tế có rất nhiều trang web có thể có rất nhiều các liên kết không đáng tin cậy trước khi nó vượt qua một số ngưỡng thống kê để rồi lại bị ảnh hưởng bởi thuật toán Penguin. Điều đặc biệt là Penguin không được dùng để thay thế để đánh giá hoặc sử dụng vì ngay cả khi với một trong hai điều trên, Google vẫn có thể có các hành động khác nhau chống lại một trang web bởi có các liên kết không đáng tin cậy.


Google Panda

Đây dường như là một thuật toán được Google đánh giá rất cao và liên tục được update, thuật toán này ảnh hưởng mạnh mẽ đến các trang web có nội dung chất lượng thấp. Kể từ ngày 18 tháng 11 năm 2011 đến nay, Google đã cập nhật Panda 14 lần . Panda hoạt động giống như một sự trừng phạt của Google với các website có nội dung nghèo nàn và có quá nhiều liên kết xấu. Trang web chỉ được phục hồi chỉ khi loại bỏ nội dung kém chất lượng và thay thế nó bằng nội dung có ích với người đọc. Thuật toán này phân biệt hoặc đánh giá tốt các nội dung trùng lặp hoặc gần như trùng lặp


Khen thưởng chất lượng

Google dành thời gian của mình tìm kiếm liên kết cũng như đáng giá chất lượng nội dung của website, do đó nó được xem là sự thay đổi mạnh mẽ để nhận biết và khen thưởng những trang web có chất lượng cao trong các công cụ tìm kiếm (cập nhật vào tháng 6 & tháng 7)


Web Spam

Trở lại vào tháng Tư, Matt Cutts đã thông báo tin này:

“Trong vài ngày tới, chúng tôi sẽ tung ra một sự thay đổi quan trọng trong thuật toán nhắm mục tiêu vào các webspam. Sự thay đổi sẽ làm giảm thứ hạng cho các trang web mà chúng tôi tin rằng đang vi phạm các nguyên tắc chất lượng hiện có của Google “

http://googlewebmastercentral.blogspot.com/2012/04/another-step-to-reward-high-quality.html

Dự báo thuật toán sẽ ảnh hưởng đến 3.1% các truy vấn tìm kiếm, tuy nhiên Matt chỉ nói rất mơ hồ về việc thuật toán làm việc như thế nào. Matt đã viết:

“Các trang web bị ảnh hưởng bởi thay đổi này có thể không dễ dàng nhận biết như việc gửi thư rác mà không cần phân tích sâu sắc về chuyên môn, nhưng đa phần các trang web này đang làm nhiều điều tồi tệ hơn so với SEO mũ trắng, chúng tôi tin rằng họ tham gia vào chiến thuật webspam để thao túng bảng xếp hạng trên công cụ tìm kiếm. “


Tối ưu hóa website

Cuối tháng 3 vừa qua, Matt Cutts đã công bố việc tối ưu hóa công cụ tìm kiếm.

“Chúng tôi đang cố gắng để làm Google Bot thông minh hơn, làm cho sự tương tác của chúng với website tốt hơn. Chúng tôi cũng tìm kiếm những người đã lợi dụng Google bot, đánh lừa Google bot như việc sử dụng quá nhiều từ khóa trên một trang, hoặc sử dụng cách trao đổi liên kết quá nhiều hay đi xa hơn những gì bạn mong đợi.

Đó có phải là một hình phạt tối ưu hơn không? Tôi không biết, nhưng cộng đồng SEO có những suy nghĩ khác nhau bởi vì khi đưa ra tuyên bố, Matt đề cập đến việc “nhồi nhét” quá nhiều từ khóa trên một trang như ông đã mô tả trước đây. Matt nói về trang web có quá nhiều backlinks và so sánh làm thế nào Google tính cách đếm từ khóa Google.


Đánh giá lại hiệu quả của website trong “mắt” Google

Google đã đưa ra công thức thực sự cho các công cụ như tần số từ khoá và các liên kết lặp đi lặp lại. Tuy nhiên số trường hợp là quá khác nhau. Vấn đề ở đây là, chúng ta không nên cố gắng đánh lừa Google. Hãy để tự nhiên tất cả diễn ra một cách tự nhiên.


Extract Domain Keywords

Vào tháng Chín, Google thông báo họ sẽ giảm bớt sự ảnh hưởng của Domain Keywords đối với kết quả tìm kiếm . Điều này không liên quan đến Panda và Penguin, nó chỉ đánh giá lại ảnh hưởng của từ khóa có trong Domain.


Quá nhiều quảng cáo trên website

Các trang web có quá nhiều quảng cáo từ trang chủ, đi qua các trang con để xem nội dung có nguy cơ phải gánh chịu một hình phạt của Google. Điều này không ảnh hưởng đến quá nhiều trang web, Google nói rằng ít hơn 1% các trang web bị ảnh hưởng.


Liên kết Blog infographic & Guest

Không có bất kỳ bản cập nhật nào, nhưng vào tháng 7, Matt Cutts đã cảnh báo rằng liên kết infographic đang nhận bị lạm dụng và có thể trở thành mục tiêu của nhóm webspam trong các chiến dịch.


Bản cập nhật Pirate

Với cập nhật Pirate, nó là một hình phạt đối với lĩnh vực nhận được quá nhiều đề nghị gỡ bỏ bởi DMCA. Thuật toán Google và cơ sở dữ liệu DMCA dường như là một cú đánh mạnh mẽ về thẳng phía các webspam.


Google Caffeine

Kể từ khi thuật toán Caffeine được tung ra một vài năm nay, chúng đã có rất nhiều thay đổi khác nhau dưới nhiều hình thức. Năm ngoái, chúng ta đã biết sự thay đổi thuật toán Caffeine qua thuật toán Panda. Năm nay, với thuật toán Penguin, nó có thể cùng phối hợp để việc tăng thu thập dữ liệu, lưu trữ dữ liệu, và xử lý dữ liệu.


Nội dung website phải “tươi mới”

Một năm trước, Google tung ra bản cập ảnh hưởng đến 35% kết quả tìm kiếm. Điều này cải thiện rất nhiều truy vấn của sự “tươi mới” trong nội dung với website. Thuật toán xác định các sự kiện gần đây hoặc định kỳ, chủ đề nóng, và các truy vấn mà thay đổi thông tin tốt nhất thường xuyên.


AJAX & JavaScript thực hiện bởi Spider

Một ví dụ khác trong những khả năng mới của Google là thông báo rằng các bot tìm kiếm bây giờ có thể thực hiện được cả qua AJAX và JavaScript. Trước đây, nó được phổ biến để ẩn liên kết phía sau JavaScript, một hình thức che đậy hoặc thao túng PageRank. Điều này sẽ không được thực hiện nếu Google có thể đọc các liên kết này.


Nội dung chỉ mục iFrame

iFrames đã từng được sử dụng rộng rãi để ẩn nội dung từ các công cụ tìm kiếm, do đó, nó là một minh chứng đáng giá của quyền hạn mở rộng của Google.


URL “Canonicalization” tự động

Nội dung trùng lặp và “canonicalization” luôn luôn là một nền tảng của SEO.

Google cho biết họ sẽ phát hiện và nhóm các nội dung trùng lặp URL vào với nhau, sau đó kết hợp quyền hạn của mình để xử lý trong khi Google vẫn quan trọng làm canonicalization URL qua thẻ “rel tags =” hoặc trong Công cụ Quản trị Trang web.


Tên miền và trang web “scraper”

Cuối tháng 12, Google đã bổ sung thêm một phân loại tên miền song song để giữ cho các trang web chưa sử dụng trong các kết quả tìm kiếm. Họ cũng cải thiện khả năng phát hiện nội dung trùng lặp và hiển thị các tài liệu có nguồn gốc trong kết quả tìm kiếm. Đây là một bước nhảy vọt công nghệ lớn, nó chứng minh khả năng tăng trưởng của Google.


Sự đa dạng trong kết quả xuất hiện

Vào tháng 9, Google phát hành một bản cập nhật để tăng số lượng các tên miền có khả năng xuất hiện trong kết quả tìm kiếm . Danny đã viết "kết quả tìm kiếm của Google đôi khi có thể được thống trị bởi các trang mà tất cả đều đến từ cùng một tên miền". Bản cập nhật này được cho là giúp giảm bớt điều đó, nó cho biết đó là một cách lựa chọn xuất hiện bảng xếp hạng của các tên miền khác nhau.

Không có nhận xét nào:

Đăng nhận xét