Các yếu tố xếp hạng của Google đã được kiểm tra và thử nghiệm
Mọi người nói tất cả mọi thứ là yếu tố xếp hạng. Nhưng sự thật là Google chưa bao giờ xác nhận hầu hết chúng.
Điều này dẫn đến rất nhiều thông tin sai lệch và lời khuyên tồi.
Trong hướng dẫn này, chúng tôi sẽ khám phá bảy yếu tố xếp hạng mà chúng tôi biết Google sử dụng.
1. Liên kết ngược
Liên kết ngược là các liên kết có thể nhấp từ trang web này sang trang web khác.Vào năm 2016, Andrey Lipattsev của Google đã xác nhận rằng chúng là một trong những yếu tố xếp hạng mạnh nhất của Google.
Nhưng không phải tất cả các backlink đều như nhau. Một số di chuyển kim nhiều hơn những người khác.
Không ai biết điều gì tạo nên backlink hoàn hảo, nhưng Google cho biết bạn nên xây dựng chúng từ các trang web nổi bật khác về chủ đề này.
2. Mức độ liên quan
Google có sẵn các hệ thống để giúp Google hiểu những gì người tìm kiếm muốn. Bạn cũng cần phải hiểu điều này nếu bạn muốn xếp hạng.Làm sao? Không có công thức hoàn hảo nào, nhưng kết quả xếp hạng hàng đầu cung cấp manh mối.
Ví dụ: hầu hết các kết quả hàng đầu cho “nồi chiên không khí” là các bài đăng trên blog có các lựa chọn hàng đầu. Điều này chỉ ra rằng những người tìm kiếm đang ở chế độ nghiên cứu, không phải chế độ mua hàng. Do đó, có thể hợp lý nhất khi nhắm mục tiêu từ khóa này bằng một bài đăng trên blog trên trang danh mục thương mại điện tử.
Ví dụ: năm trang xếp hạng cho “nồi chiên không khí” cũng xếp hạng cho các từ khóa liên quan đến các thương hiệu tốt nhất.
Nếu bạn muốn xếp hạng cho từ khóa này, có lẽ nên nói về các thương hiệu trong bài đăng của bạn.
3. Độ tươi mới
Độ mới là một yếu tố xếp hạng phụ thuộc vào truy vấn. Nó mạnh hơn cho các truy vấn yêu cầu kết quả mới. Đó là lý do tại sao các kết quả hàng đầu cho “chương trình mới của Netflix” còn khá mới, nhưng kết quả cho “cách giải khối rubik” đã cũ.Nếu sự mới mẻ là một vấn đề lớn đối với từ khóa của bạn, hãy cập nhật trang của bạn thường xuyên hoặc xuất bản các bài viết mới để theo kịp nhu cầu.
4. HTTPS
HTTPS cải thiện bảo mật cho khách truy cập trang web của bạn. Nó là một yếu tố xếp hạng nhẹ của Google kể từ năm 2014.Nếu trang web của bạn không sử dụng HTTPS, bạn sẽ thấy cảnh báo “Không an toàn” trong trình duyệt của mình.
Nếu đó là sự cố, hãy cài đặt chứng chỉ TLS.
5. Thân thiện với thiết bị di động
Tính thân thiện với thiết bị di động đã trở thành một yếu tố xếp hạng trên thiết bị di động kể từ năm 2015. Khi Google chuyển sang ưu tiên lập chỉ mục cho thiết bị di động vào năm 2019, nó cũng trở thành một yếu tố xếp hạng trên máy tính để bàn.Sử dụng báo cáo Khả năng sử dụng trên thiết bị di động trong Google Search Console để xem liệu bạn có bất kỳ vấn đề nào không.
6. Tốc độ trang
Tốc độ trang là một yếu tố xếp hạng trên máy tính để bàn kể từ năm 2010 và thiết bị di động kể từ năm 2018.Google đã sử dụng nhiều tín hiệu khác nhau để đo tốc độ trang trong những năm qua, nhưng John Mueller gần đây đã xác nhận rằng Google hiện chỉ sử dụng Core Web Vitals (CWV).
Các chỉ số quan trọng về trang web chính đo lường hiệu suất tải, tính tương tác và độ ổn định hình ảnh của trang. Google sử dụng ba chỉ số để thực hiện điều này: Nội dung vẽ lớn nhất (LCP), Độ trễ đầu vào đầu tiên (FID) và Thay đổi bố cục tích lũy (CLS).
Đây là một cách nhanh chóng để hiểu được hiệu suất CWV của trang web của bạn:
- Nhận tài khoản Công cụ quản trị trang web Ahrefs (AWT) miễn phí
- Thu thập dữ liệu trang web của bạn bằng cách sử dụng Site Audit
- Chuyển đến Báo cáo hiệu suất
- Kiểm tra phần "Các chỉ số quan trọng về trang web"
Báo cáo “Core Web Vitals” trong Google Search Console cũng cung cấp một cái nhìn tổng quan tốt.
Tuy nhiên, hãy nhớ rằng khi nói đến SEO, tên của trò chơi không phải là làm cho trang web của bạn nhanh như chớp—chỉ cần đủ nhanh. Đó là bởi vì Google chỉ giảm hạng các trang mang lại trải nghiệm chậm nhất cho người dùng.
7. Quảng cáo che khuất nội dung chính
Quảng cáo xen kẽ là lớp phủ trang. Google coi chúng là xâm phạm khi chúng cản trở chế độ xem nội dung của người dùng. Điều này là do chúng làm gián đoạn và làm người dùng bực bội, dẫn đến trải nghiệm kém.Google đã biến quảng cáo xen kẽ xâm nhập thành một yếu tố xếp hạng tiêu cực trong năm 2017. Giờ đây, chúng là một phần của tín hiệu Trải nghiệm trang.
Đây là lời khuyên của Google khi nói đến quảng cáo chuyển tiếp:
- Sử dụng biểu ngữ thay vì quảng cáo xen kẽ.
- Không che khuất toàn bộ trang bằng quảng cáo xen kẽ.
- Không chuyển hướng người dùng đến một trang riêng biệt để lấy sự đồng ý hoặc thông tin đầu vào của họ.
Tìm hiểu thêm về SEO kỹ thuật
SEO kỹ thuật là quá trình tối ưu hóa các thành phần kỹ thuật của trang web; cụ thể là cách các công cụ tìm kiếm thu thập dữ liệu, hiển thị và lập chỉ mục nội dung của bạn. Cải thiện SEO kỹ thuật giúp các công cụ tìm kiếm hiểu rõ hơn về trang web của bạn và là điều cần thiết vì nó tác động đến tất cả các khía cạnh khác của SEO.Nền tảng trang web kỹ thuật kém dẫn đến giảm nội dung và lợi ích xây dựng liên kết vì các công cụ tìm kiếm về cơ bản không thể hiểu hoặc truy cập trang web của bạn.
SEO kỹ thuật bao gồm các khái niệm SEO khác nhau, chẳng hạn như:
- Dữ liệu có cấu trúc
- Lập chỉ mục dư thừa
- Cấu trúc trang web
- Thu thập thông tin lãng phí tài nguyên
- Các phương pháp hay nhất về JavaScript
- Kỹ thuật SEO di động
Sự khác biệt giữa SEO on-page và SEO kỹ thuật là gì?
Với SEO on-page, tối ưu hóa nội dung và từ khóa là trọng tâm. SEO kỹ thuật giúp đảm bảo các công cụ tìm kiếm có thể truy cập và lập chỉ mục nội dung bạn muốn một cách hiệu quả.Thu thập thông tin, hiển thị và lập chỉ mục
Trong suốt phần còn lại của bài viết này, bạn sẽ thấy tôi đề cập đến ba khái niệm chính này. Trước khi chúng ta tiếp tục, điều quan trọng là phải hiểu ý nghĩa của từng ý nghĩa.
Nếu bạn là người mới bắt đầu, nội dung của Google về cách hoạt động của tìm kiếm là một nguồn tài nguyên tuyệt vời.
1. Crawling
Thu thập thông tin là quá trình bot của công cụ tìm kiếm truy cập vào một URL và tất cả nội dung của nó trên trang web của bạn. Có nhiều cách khác nhau để bot khám phá URL:- Truy cập một trang, xem các liên kết có sẵn và xếp hàng chúng để thu thập dữ liệu tiếp theo.
- Sử dụng sơ đồ trang web XML để tìm danh sách các URL bạn muốn lập chỉ mục trên trang web của mình (thêm về các URL này sau).
- Làm mới (thu thập lại thông tin) nội dung đã được phát hiện và lập chỉ mục trước đó.
2. Kết xuất
Nói chung, kết xuất là hành động lấy tất cả mã của trang web (như HTML, CSS và JavaScript) và biến mã đó thành các trang mà người dùng có thể đọc và tương tác.Trình duyệt thực hiện việc này cho người dùng, nhưng bot của công cụ tìm kiếm cũng hiển thị trang để truy cập và hiểu nội dung trên trang web. Các vấn đề về mã hóa có thể khiến bot (và người dùng) khó truy cập nội dung này.
Trước đây, bạn sẽ tìm thấy hầu hết nội dung trên một trang web trong HTML do máy chủ gửi. Giờ đây, các trang web thường đưa nội dung vào HTML thông qua JavaScript hơn, thường sử dụng các khung JavaScript phổ biến như React hoặc Vue JS (mặc dù đây không phải là yêu cầu!). Trong những tình huống này, trình duyệt sẽ thực hiện công việc tạo HTML thay vì máy chủ.
Việc đưa nội dung vào một trang được gọi là kết xuất phía máy khách.
Điều quan trọng cần hiểu với kết xuất phía máy khách là nếu bot không thể kết xuất trang của bạn, thì nó không thể xem nội dung, dẫn đến nội dung không được nhìn thấy và các liên kết nội bộ không được xếp hàng để thu thập dữ liệu.
Chúng ta sẽ nói nhiều hơn về cách SEO kỹ thuật khắc phục những vấn đề này sau.
3. Lập chỉ mục
Lập chỉ mục là quá trình công cụ tìm kiếm lấy nội dung mà nó đã thu thập thông tin và hiển thị, sau đó lưu trữ nội dung đó để sử dụng sau này.Mục đích của chỉ mục là lưu trữ và sắp xếp dữ liệu trước khi người dùng yêu cầu thông tin để tăng tốc quá trình truy xuất.
Hãy tưởng tượng sự chậm chạp của một công cụ tìm kiếm nếu nó phải thu thập dữ liệu trang web để khám phá nội dung sau khi bạn tìm kiếm nó; một chỉ mục ngăn trải nghiệm người dùng kém mà điều này sẽ tạo ra.
Đối với Google cụ thể, hệ thống lập chỉ mục của họ được gọi là Caffeine.
Mặc dù tôi có thể dành toàn bộ bài viết để lập chỉ mục, nhưng một số thông tin chính cần hiểu là:
- Việc lập chỉ mục xảy ra sau khi thu thập dữ liệu và hiển thị, điều đó có nghĩa là việc ngăn lập chỉ mục không ngăn việc thu thập dữ liệu.
- Việc ngăn thu thập dữ liệu cũng không ngăn việc lập chỉ mục. Nếu Google thu thập các tín hiệu cho biết một trang đang tồn tại, thì họ vẫn có thể lập chỉ mục và hiển thị trang đó trong kết quả tìm kiếm.
- Lập chỉ mục là khi Google hiểu thông tin. Điều đó có nghĩa là trích xuất những thứ như dữ liệu có cấu trúc, thẻ meta, liên kết nội bộ, v.v.
- Google áp dụng trước một số tín hiệu xếp hạng dựa trên nội dung mà nó đã lập chỉ mục.
Những công việc của SEO kỹ thuật
1. Quản lý việc thu thập thông tin của công cụ tìm kiếm
Quản lý thu thập thông tin là một phần không thể thiếu của SEO kỹ thuật cho các trang web lớn vì nó đảm bảo các công cụ tìm kiếm tập trung vào việc thu thập thông tin nội dung quan trọng mà bạn muốn hiển thị trong kết quả tìm kiếm. Nó quan trọng vì một vài lý do:- Giả sử trình thu thập dữ liệu dành tài nguyên cho các khu vực trên trang web của bạn không hữu ích cho SEO và có thể bị cấm lập chỉ mục. Trong trường hợp đó, chúng không thu thập dữ liệu các trang quan trọng hoặc nội dung mới mà bạn đang xuất bản, điều này có thể gây ra sự chậm trễ trong tốc độ hiển thị các thay đổi trên trang web của bạn trong kết quả tìm kiếm của các công cụ tìm kiếm.
- Không quản lý cách bot thu thập dữ liệu trang web của bạn có thể khiến bạn lãng phí tài nguyên máy chủ.
- Việc không quản lý hoạt động thu thập thông tin có thể khiến các công cụ tìm kiếm truy cập và lập chỉ mục các trang trên trang web của bạn mà bạn không muốn.
Cần cân nhắc một chút để ngăn các công cụ tìm kiếm thu thập dữ liệu các trang mà chúng không nên thu thập dữ liệu, chẳng hạn như các trang tìm kiếm hoặc khu vực quản trị của bạn. Nhưng việc quản lý thu thập dữ liệu để tránh lãng phí ngân sách thu thập dữ liệu không phải là điều cần xem xét cho đến khi:
- Bạn có 10.000 trang với nội dung thay đổi thường xuyên
- Bạn có hơn một triệu URL có thể thu thập dữ liệu
Bạn có thể rất sai lầm.
Các sự cố kỹ thuật với CMS của bạn có thể tạo ra nhiều URL để Google thu thập dữ liệu, ngay cả khi bạn không muốn chúng được lập chỉ mục.
Kiểu tạo URL này thường diễn ra linh hoạt từ các yếu tố thiết thực cho trải nghiệm người dùng nhưng không cần thiết cho kết quả tìm kiếm.
Một ví dụ tuyệt vời về điều này là điều hướng theo khía cạnh, thường được tìm thấy trên các trang web thương mại điện tử hoặc việc làm để giúp bạn lọc và khám phá sản phẩm hoặc công việc phù hợp.
Nếu bạn chọn một bộ lọc và URL thay đổi, điều đó có thể tạo ra vô số URL để Google thu thập dữ liệu vì có vô số tổ hợp bộ lọc có thể được áp dụng.
Phần còn lại của phần này sẽ giải thích những cách chính mà bạn có thể quản lý việc thu thập thông tin.
2. Robots.txt
Robot.txt là một tệp được sử dụng để quản lý cách bot thu thập dữ liệu trang web của bạn, đây là một tệp văn bản đơn giản mà bạn sẽ cần tạo và tải lên máy chủ của mình trên thư mục gốc, vì vậy tệp trông giống như sau:https://www.example.com/robots.txt
Mặc dù các bot không bắt buộc phải tuân theo nó, nhưng các bot tốt sẽ làm được.
Nếu bạn đang sử dụng một CMS phổ biến như Shopify hoặc WordPress.org, thì họ đã tạo sẵn một tệp như thế này cho bạn và đó là thứ bạn có thể truy cập và thay đổi.
Các bot công cụ tìm kiếm như Googlebot và Bingbot sẽ sử dụng tệp robots.txt để hiểu các phần hoặc trang trên trang web của bạn mà bạn không muốn chúng thu thập dữ liệu. Đó là cách hiệu quả nhất để quản lý ngân sách thu thập dữ liệu của bạn (số lượng tài nguyên mà Google sẽ dành để thu thập dữ liệu trang web của bạn).
Sử dụng robot.txt
Đây là một ví dụ về giao diện của tệp robots.txt:User-agent: *
Disallow: /v2/
Trong ví dụ này, chúng tôi yêu cầu các bot không thu thập dữ liệu các tệp trong thư mục /v2/. Bạn có thể thực hiện thêm một số thao tác với robots.txt để khiến chúng trở nên khá linh hoạt về các quy tắc.
Ví dụ: chúng tôi có thể không cho phép /v2/, nhưng cho phép thư mục con hình ảnh:
User-agent: *
Disallow: /v2/
Allow: /v2/images/
Chúng tôi có thể chặn tất cả các URL chứa một từ cụ thể bằng cách sử dụng ký tự đại diện * (hãy thận trọng; ví dụ này sẽ chặn các URL chứa các từ như "mới nhất").
User-agent: *
Disallow: *test*
Chúng tôi có thể tạo các quy tắc dành riêng cho Googlebot, thay vì tất cả các bot có *:
User-agent: *
Disallow: /v2/
User-agent: googlebot
Allow: /v2/
Điều trên sẽ dẫn đến việc Googlebot bỏ qua bất kỳ mục nhập nào trong nhóm quy tắc robots.txt đầu tiên và chỉ xem xét các quy tắc trong nhóm thứ hai dành riêng cho Googlebot.
Chúng tôi cũng có thể nhóm các tệp robots.txt của mình và thêm nhận xét bằng cách sử dụng dấu # để cho những người khác đang làm việc trên trang web biết lý do tại sao chúng tôi quyết định chặn một số trang nhất định.
# Chặn /v2/ cho tất cả các bot, chúng tôi chỉ muốn Google thấy điều này
User-agent: *
Disallow: /v2/
# Allows /v2/ for googlebot
User-agent: googlebot
Allow: /v2/
Một số điều quan trọng hơn cần hiểu về tệp robots.txt:
- Bạn phải đặt nó ở thư mục gốc của trang web, ví dụ: domain.com/robots.txt.
- Bạn cần định dạng nó dưới dạng tệp văn bản được mã hóa UTF-8.
- Theo mặc định, trình thu thập thông tin sẽ cố gắng truy cập tất cả các URL trên trang web của bạn. Robot.txt là cách duy nhất để ngăn trình thu thập thông tin truy cập URL.
- Robot.txt phân biệt chữ hoa chữ thường.
- Bạn không nên sử dụng nó để chặn nội dung riêng tư. Thay vào đó, mật khẩu bảo vệ nó bằng xác thực HTTP.
- Mặc dù hiếm gặp nhưng điều quan trọng là phải biết BOM UTF-8 là gì và làm thế nào nó có thể phá vỡ tệp robots.txt của bạn (Tôi chỉ tìm thấy một trong số này trong sự nghiệp SEO 8 năm của mình).
3. Nofollow
Thẻ nofollow là một công cụ khác dành cho SEO kỹ thuật để quản lý việc thu thập dữ liệu của các liên kết nội bộ.Thẻ nofollow được sử dụng với các liên kết bên ngoài để yêu cầu Google không vượt qua PageRank và không liên kết trang web của bạn với trang web được liên kết.
Sử dụng thẻ nofollow không phải là cách chắc chắn để ngăn Google thu thập dữ liệu URL nội bộ giống như tệp robots.txt, nhưng Google coi đó là dấu hiệu cho thấy trang bạn đang liên kết không quan trọng và Google không cần thu thập dữ liệu nó, như đã được xác nhận bởi John Mueller.
“....chúng tôi sẽ tiếp tục sử dụng các liên kết nofollow nội bộ này như một dấu hiệu cho thấy bạn đang nói với chúng tôi:
- Những trang này không thú vị bằng
- Google không cần thu thập dữ liệu chúng
- Chúng không cần được sử dụng để xếp hạng, lập chỉ mục.”
Khi nào sử dụng nofollow nội bộ?
Nếu robots.txt là một lệnh và nofollow là một gợi ý, thì bạn sẽ nghĩ rằng sự lựa chọn rõ ràng là robots.txt.Ngay cả Google cũng gợi ý nhiều như vậy trong tài liệu của họ.
Điều đó đúng trong nhiều trường hợp, nhưng trong một số trường hợp, robots.txt có thể là một công cụ đầy thách thức để quản lý hoạt động thu thập dữ liệu.
Đó là điều tôi đã nêu ra trong một chủ đề trên Twitter.
Robot.txt trở nên cực kỳ khó sử dụng trên các trang web tạo ra hàng triệu URL không có mẫu URL có thể nhận dạng để ngăn thu thập dữ liệu.
Ví dụ: giả sử chúng tôi có các bộ lọc trên các danh mục thương mại điện tử tạo ra 10.000 URL có thư mục /color/ cho các khía cạnh màu sắc.
Chúng tôi có thể ngăn thư mục này bị thu thập thông tin trong robots.txt bằng cách sử dụng:
Đại lý người dùng: *
Không cho phép: */color/*
Nhưng điều gì sẽ xảy ra nếu 2.000 trang trong thư mục hữu ích cho tìm kiếm, vì vậy chúng tôi muốn trình thu thập thông tin có thể truy cập chúng?
Trừ khi có một mẫu URL rõ ràng để chúng tôi xác định, chúng tôi cần xác định quy tắc "Cho phép:" cho trang mà chúng tôi muốn được lập chỉ mục. Chẳng hạn như:
User-agent: *
Disallow: */colour/*
Allow: /jeans/colour/black/
Allow: /jeans/colour/blue/
Giờ hãy mở rộng quy mô vấn đề đó trên tất cả các màu sắc, danh mục và khía cạnh mà bạn muốn cho phép thu thập dữ liệu; robots.txt của bạn sẽ nhanh chóng trở nên dài và phức tạp.
Phát triển một giải pháp để tự động thêm một nofollow nội bộ vào các liên kết trỏ đến nội dung không hữu ích cho tìm kiếm có thể giúp giải quyết vấn đề thu thập dữ liệu. Tuy nhiên, Google có toàn quyền quyết định có tuân theo hướng dẫn của bạn hay không.
4. Quản lý lập chỉ mục
Bây giờ chúng tôi đã giải thích việc quản lý thu thập dữ liệu; bước tiếp theo là hiểu việc quản lý lập chỉ mục.Đối với hầu hết các trang web, việc quản lý chỉ mục của công cụ tìm kiếm nào là ưu tiên cao hơn so với việc quản lý cách các công cụ tìm kiếm thu thập dữ liệu trang web của họ.
Tại sao?
Các công cụ tìm kiếm đánh giá trang web của bạn dựa trên các trang mà chúng lập chỉ mục, điều này ảnh hưởng trực tiếp đến cách trang web của bạn hoạt động trong kết quả tìm kiếm.Dưới đây là đoạn clip John Mueller giải thích điều này trong Hangout dành cho quản trị viên trang web.
Hy vọng bạn sẽ nhận ra rằng việc đảm bảo Google chỉ lập chỉ mục nội dung chất lượng cao là điều cần thiết.
Mặc dù vậy, các vấn đề về lập chỉ mục vẫn phổ biến đối với hầu hết các trang web, ảnh hưởng tiêu cực đến quan điểm của Google về chất lượng của trang web.
Có hai nguyên nhân khiến Google lập chỉ mục các trang chất lượng thấp:
- Nội dung chất lượng thấp, nằm trong lĩnh vực tối ưu hóa trên trang nhiều hơn
- Chỉ số sưng lên; Một cái gì đó một SEO kỹ thuật sẽ giải quyết
Index bloat
Chỉ mục phình to là khi một công cụ tìm kiếm có các trang được lập chỉ mục không hữu ích cho kết quả tìm kiếm. Các ví dụ phổ biến của các loại trang này bao gồm:- Các trang trùng lặp, chẳng hạn như nội dung có sẵn ở hai nơi, chẳng hạn như example.com/this-is-a-blog-post và example.com/blog/this-is-a-blog-post
- Trang tìm kiếm nội bộ
- URL có tham số (thường để theo dõi)
- URL được tạo để lọc (điều hướng theo khía cạnh)
Một tính năng hữu ích của báo cáo này là nếu bạn đã tải lên một sơ đồ trang web XML (thêm về các sơ đồ đó sau), bạn sẽ nhận được sự so sánh giữa các URL bạn đã gửi tới Google và các URL bạn chưa gửi.
Bạn có thể nhanh chóng phát hiện sự phình to của chỉ mục nếu bạn đã tải lên một sơ đồ trang web XML chính xác bằng cách so sánh hai hàng này.
Trang web ở trên có một số vấn đề về phình chỉ mục rõ ràng cần được giải quyết (hiển nhiên là do sự khác biệt lớn giữa các URL được lập chỉ mục và không được gửi so với URL đã gửi và được lập chỉ mục).
Nhưng làm thế nào để bạn giải quyết tình trạng phình to chỉ mục? Có hai cách để làm điều đó. Tôi sẽ giải thích cả hai và sau đó cung cấp cho bạn một số lời khuyên về thời điểm sử dụng cái gì.
5. Các cách để Google không lập chỉ mục trang web
Thẻ noindex là một lệnh yêu cầu Google không lập chỉ mục nội dung mà họ đã tìm thấy thông qua thu thập dữ liệu.Tốt nhất nên sử dụng thẻ này nếu nội dung không trùng lặp với trang khác và không hữu ích cho người dùng trên công cụ tìm kiếm. Các ví dụ phổ biến về các loại trang này có thể là trang kết quả tìm kiếm hoặc trang có giá trị thấp mà CMS của bạn tạo ra, chẳng hạn như cách WordPress tạo URL đính kèm hình ảnh.
Bạn có thể triển khai lệnh cấm theo hai cách.
a. Thẻ meta
Tùy chọn đầu tiên là thông qua thẻ meta giống như sau:<meta name="robot" content="noindex">
Chỉ cần thêm phần trên vào <head> của trang web của bạn.
b. Tiêu đề HTTP
Tùy chọn khác là thông qua tiêu đề HTTP như bên dưới:c. X-Robots-Tag: noindex
Hầu hết các trang web chọn thẻ meta vì nó thường dễ thực hiện hơn một chút, nhưng cả hai tùy chọn sẽ thực hiện cùng một công việc. Tốt nhất bạn nên sử dụng phương pháp mà bạn có thể triển khai dễ dàng với thiết lập hiện tại của mình.d. Thẻ Canonical
Bạn có thể sử dụng thẻ chuẩn để hợp nhất các URL trùng lặp.Điều đó có nghĩa là bạn chỉ có thể sử dụng nó để quản lý lập chỉ mục cho các URL có cùng nội dung hoặc nội dung tương tự nhau. Nếu bạn muốn ngăn việc lập chỉ mục một URL không trùng lặp, thì thẻ chuẩn không phải là phương pháp đúng.
Lợi ích của thẻ chuẩn là nó hợp nhất các tín hiệu xếp hạng vào bất kỳ thứ gì bạn chỉ định làm URL chuẩn. Điều này không làm giảm lợi ích từ các liên kết bên ngoài hoặc các tín hiệu xếp hạng khác được liên kết với một URL không chuẩn, miễn là bạn đã triển khai thẻ chuẩn một cách chính xác.
© 2007 - 2024 https://dichvuseoweb.net