Các yếu tố xếp hạng của Google đã được kiểm tra và thử nghiệm


Mọi người nói tất cả mọi thứ là yếu tố xếp hạng. Nhưng sự thật là Google chưa bao giờ xác nhận hầu hết chúng.

Điều này dẫn đến rất nhiều thông tin sai lệch và lời khuyên tồi.

Trong hướng dẫn này, chúng tôi sẽ khám phá bảy yếu tố xếp hạng mà chúng tôi biết Google sử dụng.

Các yếu tố xếp hạng của Google đã được kiểm tra và thử nghiệm

1. Liên kết ngược

Liên kết ngược là các liên kết có thể nhấp từ trang web này sang trang web khác.

Vào năm 2016, Andrey Lipattsev của Google đã xác nhận rằng chúng là một trong những yếu tố xếp hạng mạnh nhất của Google.

Nhưng không phải tất cả các backlink đều như nhau. Một số di chuyển kim nhiều hơn những người khác.

Không ai biết điều gì tạo nên backlink hoàn hảo, nhưng Google cho biết bạn nên xây dựng chúng từ các trang web nổi bật khác về chủ đề này.

2. Mức độ liên quan

Google có sẵn các hệ thống để giúp Google hiểu những gì người tìm kiếm muốn. Bạn cũng cần phải hiểu điều này nếu bạn muốn xếp hạng.

Làm sao? Không có công thức hoàn hảo nào, nhưng kết quả xếp hạng hàng đầu cung cấp manh mối.

Ví dụ: hầu hết các kết quả hàng đầu cho “nồi chiên không khí” là các bài đăng trên blog có các lựa chọn hàng đầu. Điều này chỉ ra rằng những người tìm kiếm đang ở chế độ nghiên cứu, không phải chế độ mua hàng. Do đó, có thể hợp lý nhất khi nhắm mục tiêu từ khóa này bằng một bài đăng trên blog trên trang danh mục thương mại điện tử.

Ví dụ: năm trang xếp hạng cho “nồi chiên không khí” cũng xếp hạng cho các từ khóa liên quan đến các thương hiệu tốt nhất.

Nếu bạn muốn xếp hạng cho từ khóa này, có lẽ nên nói về các thương hiệu trong bài đăng của bạn.

3. Độ tươi mới

Độ mới là một yếu tố xếp hạng phụ thuộc vào truy vấn. Nó mạnh hơn cho các truy vấn yêu cầu kết quả mới. Đó là lý do tại sao các kết quả hàng đầu cho “chương trình mới của Netflix” còn khá mới, nhưng kết quả cho “cách giải khối rubik” đã cũ.

Nếu sự mới mẻ là một vấn đề lớn đối với từ khóa của bạn, hãy cập nhật trang của bạn thường xuyên hoặc xuất bản các bài viết mới để theo kịp nhu cầu.

4. HTTPS

HTTPS cải thiện bảo mật cho khách truy cập trang web của bạn. Nó là một yếu tố xếp hạng nhẹ của Google kể từ năm 2014.

Nếu trang web của bạn không sử dụng HTTPS, bạn sẽ thấy cảnh báo “Không an toàn” trong trình duyệt của mình.

Sử dụng https

Nếu đó là sự cố, hãy cài đặt chứng chỉ TLS.

5. Thân thiện với thiết bị di động

Tính thân thiện với thiết bị di động đã trở thành một yếu tố xếp hạng trên thiết bị di động kể từ năm 2015. Khi Google chuyển sang ưu tiên lập chỉ mục cho thiết bị di động vào năm 2019, nó cũng trở thành một yếu tố xếp hạng trên máy tính để bàn.

Sử dụng báo cáo Khả năng sử dụng trên thiết bị di động trong Google Search Console để xem liệu bạn có bất kỳ vấn đề nào không.

6. Tốc độ trang

Tốc độ trang là một yếu tố xếp hạng trên máy tính để bàn kể từ năm 2010 và thiết bị di động kể từ năm 2018.

Google đã sử dụng nhiều tín hiệu khác nhau để đo tốc độ trang trong những năm qua, nhưng John Mueller gần đây đã xác nhận rằng Google hiện chỉ sử dụng Core Web Vitals (CWV).

Các chỉ số quan trọng về trang web chính đo lường hiệu suất tải, tính tương tác và độ ổn định hình ảnh của trang. Google sử dụng ba chỉ số để thực hiện điều này: Nội dung vẽ lớn nhất (LCP), Độ trễ đầu vào đầu tiên (FID) và Thay đổi bố cục tích lũy (CLS).

Đây là một cách nhanh chóng để hiểu được hiệu suất CWV của trang web của bạn:
Tốc độ tải trang

Báo cáo “Core Web Vitals” trong Google Search Console cũng cung cấp một cái nhìn tổng quan tốt.

Tuy nhiên, hãy nhớ rằng khi nói đến SEO, tên của trò chơi không phải là làm cho trang web của bạn nhanh như chớp—chỉ cần đủ nhanh. Đó là bởi vì Google chỉ giảm hạng các trang mang lại trải nghiệm chậm nhất cho người dùng.

7. Quảng cáo che khuất nội dung chính

Quảng cáo xen kẽ là lớp phủ trang. Google coi chúng là xâm phạm khi chúng cản trở chế độ xem nội dung của người dùng. Điều này là do chúng làm gián đoạn và làm người dùng bực bội, dẫn đến trải nghiệm kém.

Quảng cáo xen kẻ xâm nhập

Google đã biến quảng cáo xen kẽ xâm nhập thành một yếu tố xếp hạng tiêu cực trong năm 2017. Giờ đây, chúng là một phần của tín hiệu Trải nghiệm trang.

Đây là lời khuyên của Google khi nói đến quảng cáo chuyển tiếp:

Tìm hiểu thêm về SEO kỹ thuật

SEO kỹ thuật là quá trình tối ưu hóa các thành phần kỹ thuật của trang web; cụ thể là cách các công cụ tìm kiếm thu thập dữ liệu, hiển thị và lập chỉ mục nội dung của bạn. Cải thiện SEO kỹ thuật giúp các công cụ tìm kiếm hiểu rõ hơn về trang web của bạn và là điều cần thiết vì nó tác động đến tất cả các khía cạnh khác của SEO.

Nền tảng trang web kỹ thuật kém dẫn đến giảm nội dung và lợi ích xây dựng liên kết vì các công cụ tìm kiếm về cơ bản không thể hiểu hoặc truy cập trang web của bạn.

SEO kỹ thuật bao gồm các khái niệm SEO khác nhau, chẳng hạn như:

Sự khác biệt giữa SEO on-page và SEO kỹ thuật là gì?

Với SEO on-page, tối ưu hóa nội dung và từ khóa là trọng tâm. SEO kỹ thuật giúp đảm bảo các công cụ tìm kiếm có thể truy cập và lập chỉ mục nội dung bạn muốn một cách hiệu quả.

Thu thập thông tin, hiển thị và lập chỉ mục

Trong suốt phần còn lại của bài viết này, bạn sẽ thấy tôi đề cập đến ba khái niệm chính này. Trước khi chúng ta tiếp tục, điều quan trọng là phải hiểu ý nghĩa của từng ý nghĩa.

Nếu bạn là người mới bắt đầu, nội dung của Google về cách hoạt động của tìm kiếm là một nguồn tài nguyên tuyệt vời.

Sự khác biệt giữa SEO on-page và SEO kỹ thuật là gì?

1. Crawling

Thu thập thông tin là quá trình bot của công cụ tìm kiếm truy cập vào một URL và tất cả nội dung của nó trên trang web của bạn. Có nhiều cách khác nhau để bot khám phá URL:

2. Kết xuất

Nói chung, kết xuất là hành động lấy tất cả mã của trang web (như HTML, CSS và JavaScript) và biến mã đó thành các trang mà người dùng có thể đọc và tương tác.

Trình duyệt thực hiện việc này cho người dùng, nhưng bot của công cụ tìm kiếm cũng hiển thị trang để truy cập và hiểu nội dung trên trang web. Các vấn đề về mã hóa có thể khiến bot (và người dùng) khó truy cập nội dung này.

Trước đây, bạn sẽ tìm thấy hầu hết nội dung trên một trang web trong HTML do máy chủ gửi. Giờ đây, các trang web thường đưa nội dung vào HTML thông qua JavaScript hơn, thường sử dụng các khung JavaScript phổ biến như React hoặc Vue JS (mặc dù đây không phải là yêu cầu!). Trong những tình huống này, trình duyệt sẽ thực hiện công việc tạo HTML thay vì máy chủ.

Việc đưa nội dung vào một trang được gọi là kết xuất phía máy khách.

Điều quan trọng cần hiểu với kết xuất phía máy khách là nếu bot không thể kết xuất trang của bạn, thì nó không thể xem nội dung, dẫn đến nội dung không được nhìn thấy và các liên kết nội bộ không được xếp hàng để thu thập dữ liệu.

Chúng ta sẽ nói nhiều hơn về cách SEO kỹ thuật khắc phục những vấn đề này sau.

3. Lập chỉ mục

Lập chỉ mục là quá trình công cụ tìm kiếm lấy nội dung mà nó đã thu thập thông tin và hiển thị, sau đó lưu trữ nội dung đó để sử dụng sau này.

Mục đích của chỉ mục là lưu trữ và sắp xếp dữ liệu trước khi người dùng yêu cầu thông tin để tăng tốc quá trình truy xuất.

Hãy tưởng tượng sự chậm chạp của một công cụ tìm kiếm nếu nó phải thu thập dữ liệu trang web để khám phá nội dung sau khi bạn tìm kiếm nó; một chỉ mục ngăn trải nghiệm người dùng kém mà điều này sẽ tạo ra.

Đối với Google cụ thể, hệ thống lập chỉ mục của họ được gọi là Caffeine.

Mặc dù tôi có thể dành toàn bộ bài viết để lập chỉ mục, nhưng một số thông tin chính cần hiểu là:

Những công việc của SEO kỹ thuật

1. Quản lý việc thu thập thông tin của công cụ tìm kiếm

Quản lý thu thập thông tin là một phần không thể thiếu của SEO kỹ thuật cho các trang web lớn vì nó đảm bảo các công cụ tìm kiếm tập trung vào việc thu thập thông tin nội dung quan trọng mà bạn muốn hiển thị trong kết quả tìm kiếm. Nó quan trọng vì một vài lý do:
Bạn cũng cần hiểu rằng việc thu thập thông tin không trở thành vấn đề đối với hầu hết các trang web.

Cần cân nhắc một chút để ngăn các công cụ tìm kiếm thu thập dữ liệu các trang mà chúng không nên thu thập dữ liệu, chẳng hạn như các trang tìm kiếm hoặc khu vực quản trị của bạn. Nhưng việc quản lý thu thập dữ liệu để tránh lãng phí ngân sách thu thập dữ liệu không phải là điều cần xem xét cho đến khi: Tôi đã in đậm "có thể thu thập dữ liệu" ở trên vì đó là một yếu tố quan trọng cần cân nhắc. Bạn có thể nhìn vào trang web của mình và nghĩ rằng bạn chỉ có 5.000 trang, vì vậy việc theo dõi ngân sách thu thập dữ liệu của bạn không áp dụng.

Bạn có thể rất sai lầm.

Các sự cố kỹ thuật với CMS của bạn có thể tạo ra nhiều URL để Google thu thập dữ liệu, ngay cả khi bạn không muốn chúng được lập chỉ mục.

Kiểu tạo URL này thường diễn ra linh hoạt từ các yếu tố thiết thực cho trải nghiệm người dùng nhưng không cần thiết cho kết quả tìm kiếm.

Một ví dụ tuyệt vời về điều này là điều hướng theo khía cạnh, thường được tìm thấy trên các trang web thương mại điện tử hoặc việc làm để giúp bạn lọc và khám phá sản phẩm hoặc công việc phù hợp.

Nếu bạn chọn một bộ lọc và URL thay đổi, điều đó có thể tạo ra vô số URL để Google thu thập dữ liệu vì có vô số tổ hợp bộ lọc có thể được áp dụng.

Phần còn lại của phần này sẽ giải thích những cách chính mà bạn có thể quản lý việc thu thập thông tin.

SEO kỹ thuật bao gồm những công việc gì?

2. Robots.txt

Robot.txt là một tệp được sử dụng để quản lý cách bot thu thập dữ liệu trang web của bạn, đây là một tệp văn bản đơn giản mà bạn sẽ cần tạo và tải lên máy chủ của mình trên thư mục gốc, vì vậy tệp trông giống như sau:

https://www.example.com/robots.txt

Mặc dù các bot không bắt buộc phải tuân theo nó, nhưng các bot tốt sẽ làm được.

Nếu bạn đang sử dụng một CMS phổ biến như Shopify hoặc WordPress.org, thì họ đã tạo sẵn một tệp như thế này cho bạn và đó là thứ bạn có thể truy cập và thay đổi.

Các bot công cụ tìm kiếm như Googlebot và Bingbot sẽ sử dụng tệp robots.txt để hiểu các phần hoặc trang trên trang web của bạn mà bạn không muốn chúng thu thập dữ liệu. Đó là cách hiệu quả nhất để quản lý ngân sách thu thập dữ liệu của bạn (số lượng tài nguyên mà Google sẽ dành để thu thập dữ liệu trang web của bạn).

Sử dụng robot.txt

Đây là một ví dụ về giao diện của tệp robots.txt:

User-agent: *
Disallow: /v2/

Trong ví dụ này, chúng tôi yêu cầu các bot không thu thập dữ liệu các tệp trong thư mục /v2/. Bạn có thể thực hiện thêm một số thao tác với robots.txt để khiến chúng trở nên khá linh hoạt về các quy tắc.

Ví dụ: chúng tôi có thể không cho phép /v2/, nhưng cho phép thư mục con hình ảnh:

User-agent: *
Disallow: /v2/
Allow: /v2/images/

Chúng tôi có thể chặn tất cả các URL chứa một từ cụ thể bằng cách sử dụng ký tự đại diện * (hãy thận trọng; ví dụ này sẽ chặn các URL chứa các từ như "mới nhất").

User-agent: *
Disallow: *test*

Chúng tôi có thể tạo các quy tắc dành riêng cho Googlebot, thay vì tất cả các bot có *:

User-agent: *
Disallow: /v2/
User-agent: googlebot
Allow: /v2/

Điều trên sẽ dẫn đến việc Googlebot bỏ qua bất kỳ mục nhập nào trong nhóm quy tắc robots.txt đầu tiên và chỉ xem xét các quy tắc trong nhóm thứ hai dành riêng cho Googlebot.

Chúng tôi cũng có thể nhóm các tệp robots.txt của mình và thêm nhận xét bằng cách sử dụng dấu # để cho những người khác đang làm việc trên trang web biết lý do tại sao chúng tôi quyết định chặn một số trang nhất định.

# Chặn /v2/ cho tất cả các bot, chúng tôi chỉ muốn Google thấy điều này

User-agent: *
Disallow: /v2/
# Allows /v2/ for googlebot
User-agent: googlebot
Allow: /v2/

Một số điều quan trọng hơn cần hiểu về tệp robots.txt:

3. Nofollow

Thẻ nofollow là một công cụ khác dành cho SEO kỹ thuật để quản lý việc thu thập dữ liệu của các liên kết nội bộ.

SEO kỹ thuật

Thẻ nofollow được sử dụng với các liên kết bên ngoài để yêu cầu Google không vượt qua PageRank và không liên kết trang web của bạn với trang web được liên kết.

Sử dụng thẻ nofollow không phải là cách chắc chắn để ngăn Google thu thập dữ liệu URL nội bộ giống như tệp robots.txt, nhưng Google coi đó là dấu hiệu cho thấy trang bạn đang liên kết không quan trọng và Google không cần thu thập dữ liệu nó, như đã được xác nhận bởi John Mueller.

“....chúng tôi sẽ tiếp tục sử dụng các liên kết nofollow nội bộ này như một dấu hiệu cho thấy bạn đang nói với chúng tôi:

Khi nào sử dụng nofollow nội bộ?

Nếu robots.txt là một lệnh và nofollow là một gợi ý, thì bạn sẽ nghĩ rằng sự lựa chọn rõ ràng là robots.txt.

Ngay cả Google cũng gợi ý nhiều như vậy trong tài liệu của họ.

Điều đó đúng trong nhiều trường hợp, nhưng trong một số trường hợp, robots.txt có thể là một công cụ đầy thách thức để quản lý hoạt động thu thập dữ liệu.

Đó là điều tôi đã nêu ra trong một chủ đề trên Twitter.

Robot.txt trở nên cực kỳ khó sử dụng trên các trang web tạo ra hàng triệu URL không có mẫu URL có thể nhận dạng để ngăn thu thập dữ liệu.

Ví dụ: giả sử chúng tôi có các bộ lọc trên các danh mục thương mại điện tử tạo ra 10.000 URL có thư mục /color/ cho các khía cạnh màu sắc.

Chúng tôi có thể ngăn thư mục này bị thu thập thông tin trong robots.txt bằng cách sử dụng:

Đại lý người dùng: *
Không cho phép: */color/*

Nhưng điều gì sẽ xảy ra nếu 2.000 trang trong thư mục hữu ích cho tìm kiếm, vì vậy chúng tôi muốn trình thu thập thông tin có thể truy cập chúng?

Trừ khi có một mẫu URL rõ ràng để chúng tôi xác định, chúng tôi cần xác định quy tắc "Cho phép:" cho trang mà chúng tôi muốn được lập chỉ mục. Chẳng hạn như:

User-agent: *
Disallow: */colour/*
Allow: /jeans/colour/black/
Allow: /jeans/colour/blue/

Giờ hãy mở rộng quy mô vấn đề đó trên tất cả các màu sắc, danh mục và khía cạnh mà bạn muốn cho phép thu thập dữ liệu; robots.txt của bạn sẽ nhanh chóng trở nên dài và phức tạp.

Phát triển một giải pháp để tự động thêm một nofollow nội bộ vào các liên kết trỏ đến nội dung không hữu ích cho tìm kiếm có thể giúp giải quyết vấn đề thu thập dữ liệu. Tuy nhiên, Google có toàn quyền quyết định có tuân theo hướng dẫn của bạn hay không.

4. Quản lý lập chỉ mục

Bây giờ chúng tôi đã giải thích việc quản lý thu thập dữ liệu; bước tiếp theo là hiểu việc quản lý lập chỉ mục.

Đối với hầu hết các trang web, việc quản lý chỉ mục của công cụ tìm kiếm nào là ưu tiên cao hơn so với việc quản lý cách các công cụ tìm kiếm thu thập dữ liệu trang web của họ.

Tại sao?

Các công cụ tìm kiếm đánh giá trang web của bạn dựa trên các trang mà chúng lập chỉ mục, điều này ảnh hưởng trực tiếp đến cách trang web của bạn hoạt động trong kết quả tìm kiếm.

Dưới đây là đoạn clip John Mueller giải thích điều này trong Hangout dành cho quản trị viên trang web.

Hy vọng bạn sẽ nhận ra rằng việc đảm bảo Google chỉ lập chỉ mục nội dung chất lượng cao là điều cần thiết.

Mặc dù vậy, các vấn đề về lập chỉ mục vẫn phổ biến đối với hầu hết các trang web, ảnh hưởng tiêu cực đến quan điểm của Google về chất lượng của trang web.

Có hai nguyên nhân khiến Google lập chỉ mục các trang chất lượng thấp:

Index bloat

Chỉ mục phình to là khi một công cụ tìm kiếm có các trang được lập chỉ mục không hữu ích cho kết quả tìm kiếm. Các ví dụ phổ biến của các loại trang này bao gồm: Một cách nhanh chóng và dễ dàng để phát hiện sự phình to của chỉ mục là sử dụng Google Search Console. Chỉ cần đi tới các báo cáo về mức độ phù hợp, kiểm tra các URL "hợp lệ" và bạn sẽ tìm thấy một bảng tóm tắt các URL mà Google đã lập chỉ mục trên trang web.

Một tính năng hữu ích của báo cáo này là nếu bạn đã tải lên một sơ đồ trang web XML (thêm về các sơ đồ đó sau), bạn sẽ nhận được sự so sánh giữa các URL bạn đã gửi tới Google và các URL bạn chưa gửi.

Bạn có thể nhanh chóng phát hiện sự phình to của chỉ mục nếu bạn đã tải lên một sơ đồ trang web XML chính xác bằng cách so sánh hai hàng này.

Trang web ở trên có một số vấn đề về phình chỉ mục rõ ràng cần được giải quyết (hiển nhiên là do sự khác biệt lớn giữa các URL được lập chỉ mục và không được gửi so với URL đã gửi và được lập chỉ mục).

Nhưng làm thế nào để bạn giải quyết tình trạng phình to chỉ mục? Có hai cách để làm điều đó. Tôi sẽ giải thích cả hai và sau đó cung cấp cho bạn một số lời khuyên về thời điểm sử dụng cái gì.

5. Các cách để Google không lập chỉ mục trang web

Thẻ noindex là một lệnh yêu cầu Google không lập chỉ mục nội dung mà họ đã tìm thấy thông qua thu thập dữ liệu.

Tốt nhất nên sử dụng thẻ này nếu nội dung không trùng lặp với trang khác và không hữu ích cho người dùng trên công cụ tìm kiếm. Các ví dụ phổ biến về các loại trang này có thể là trang kết quả tìm kiếm hoặc trang có giá trị thấp mà CMS của bạn tạo ra, chẳng hạn như cách WordPress tạo URL đính kèm hình ảnh.

Các cách để Google không lập chỉ mục trang web

Bạn có thể triển khai lệnh cấm theo hai cách.

a. Thẻ meta

Tùy chọn đầu tiên là thông qua thẻ meta giống như sau:

<meta name="robot" content="noindex">

Chỉ cần thêm phần trên vào <head> của trang web của bạn.

b. Tiêu đề HTTP

Tùy chọn khác là thông qua tiêu đề HTTP như bên dưới:

c. X-Robots-Tag: noindex

Hầu hết các trang web chọn thẻ meta vì nó thường dễ thực hiện hơn một chút, nhưng cả hai tùy chọn sẽ thực hiện cùng một công việc. Tốt nhất bạn nên sử dụng phương pháp mà bạn có thể triển khai dễ dàng với thiết lập hiện tại của mình.

d. Thẻ Canonical

Bạn có thể sử dụng thẻ chuẩn để hợp nhất các URL trùng lặp.

Điều đó có nghĩa là bạn chỉ có thể sử dụng nó để quản lý lập chỉ mục cho các URL có cùng nội dung hoặc nội dung tương tự nhau. Nếu bạn muốn ngăn việc lập chỉ mục một URL không trùng lặp, thì thẻ chuẩn không phải là phương pháp đúng.

Lợi ích của thẻ chuẩn là nó hợp nhất các tín hiệu xếp hạng vào bất kỳ thứ gì bạn chỉ định làm URL chuẩn. Điều này không làm giảm lợi ích từ các liên kết bên ngoài hoặc các tín hiệu xếp hạng khác được liên kết với một URL không chuẩn, miễn là bạn đã triển khai thẻ chuẩn một cách chính xác.


© 2007 - 2024 https://dichvuseoweb.net

Addr: Binh Duong, Vietnam
Phone: +84-908-744-256

0917212969

Zalo

Telegram

Viber