Main Menu

What’s New?

18 thuật ngữ SEO thường dùng

Shares

SEO có rất nhiều thuật ngữ chuyên môn mà không phải ai cũng hiểu hết ý nghĩa của chúng. ITWEB xin giới thiệu tới cấc bạn “18 thuật ngữ SEO” thường dùng:

>>> Xem thêm: Cách cài đặt mã theo dõi Google Analytics.

Nội dung bài viết

1.SEM:

Viết tắt của cụm từ: Search Engine Marketing. Nghĩa là tiếp thị các dịch vụ hoặc sản phẩm trên các bộ máy tìm kiếm. SEM chia làm 2 mảng chính: SEO và PPC. SEO (Search Engine Optimization) như đã giải thích ở trên. PPC (Pay-Per-Click) có nghĩa là bạn trả tiền cho các “click” đến từ các bộ máy tìm kiếm, các click đến từ những liên kết trả tiền “sponsored” trong các kết quả tìm kiếm.

2.Backlink:

Là các siêu liên kết (hyperlink) từ các website khác trỏ về website của bạn. Các “backlink” rất quan trọng cho SEO vì: Chúng tác động trực tiếp đến vị trí xếp hạng của bạn.

3.Linkbait:

Là một phần nội dung. Một bài viết trên website hoặc blog với mục đích thu hút càng nhiều “backlink” càng tốt. Một ví dụ thường thấy về “linkbait” là các bài viết “Top 10…” “Làm thế nào để…” v.v..

4.Link Farm:

Một “link farm” là một nhóm các website mà mọi website này liên kết đến các website còn lại. Ngày trước việc làm này rất có hiệu quả. Nhưng ngày nay kỹ thuật này bị coi là “spam”. Thậm chí nặng hơn, website sử dụng kỹ thuật này có thể bị Google phạt không cho phép được xếp hạng.

5.Anchor Text:

  • “Anchor text” là phần chữ viết trong 1 liên kết. Một dạng text chứa 1 liên kết đến 1 bài viết, 1 trang trên Website đó hoặc một website khác. Google sẽ kết hợp các từ khóa trong “Anchor text” với nội dung Website của bạn. Vì vậy, nó sẽ giúp cho công việc làm SEO thêm hiệu quả hơn.

Ví dụ;  tôi có đoạn mã <a href=”http://thietkeweb.congay.com/“>Thiết kế website chuyên nghiệp</a> sẽ hiển thị trên bài viết dưới dạng link như sau: Thiết kế Website chuyên nghiệp. Như vậy, Thiết kế website chuyên nghiệp là một Anchor text.

6.NoFollow:

nofollow là một giá trị thuộc tính HTML được dùng để yêu cầu một số bộ máy tìm kiếm rằng một siêu liên kết không nên ảnh hưởng đến xếp hạng liên kết đến trang đích trong chỉ mục của bộ máy tìm kiếm. Nó được tạo dựng nhằm giảm tác động của một số loại spam bộ máy tìm kiếm. Nhờ vậy làm tăng chất lượng của kết quả tìm kiếm do máy tìm kiếm trả về và giảm hiện tượng spamdexing. Đối với bộ máy tìm kiếm, một trang web không được có quá nhiều liên kết ra ngoài. Như với Google cho phép một trang web có tối đa 100 liên kết đến các trang web khác. Việc thêm thuộc tính “nofollow” thường dùng cho các liên kết trong comment của blog .

7.Title Tag:

Thẻ “<title></title>” là thẻ để đặt tiều đều cho một trang web trên trình duyệt. Nó là một nhân tố quan trọng nhất đối với thuật toán xếp hạng của Google. Để đạt được hiệu quả nhất, thẻ tiêu đề của bạn nên độc đáo, “chất” và chứa những từ khoá chính của trang web.

8.Meta Tags:

Các thẻ “<meta />” được  vcx-cung cấp cho các search engine những thông tin liên quan đến các trang của bạn. Các thẻ “<meta />” được đặt bên trọng thẻ “<head></head>” trong mã HTML.

9. Search Algorithm:

Thuật toán tìm kiếm của Google được sử dụng để tìm những các web phù hợp nhất cho các từ khoá tìm kiếm trên Google Search. Theo Google thuật toán này thông qua hơn 200 nhân tố, bao gồm giá trị PageRank, thẻ “<title></title>”, các thẻ” <meta />” và nội dung của website, tuổi thọ của tên miền v.v..

10. SERP:

Search Engine Results Page – là trang kết quả của bộ máy tìm kiếm web. Về cơ bản đó là trang bạn sẽ thấy khi tìm kiếm với một từ khoá nào đó trên Google hoặc trên các bộ máy tìm kiếm khác. Lượng traffic bạn kiếm được từ search engine tuỳ thuộc vào thứ hạng bạn được xếp trên các trang SERP này.

11. Sandbox:

Có thể nhiều người không biết Google có một khu vực liệt kê (index) các trang web khác có tên là Sandbox. Nhằm liệt kê các website mới được tìm thấy. Khi các website ở trong Sandbox, chúng sẽ không được hiển thị trên các kết quả tìm kiếm thông thường. Khi Google xác minh một website là hợp pháp, Google sẽ đưa ra khỏi Sandbox và website đó sẽ được xếp hạng theo cách thông thường.

12. Keyword Density:

Tạm dịch là “mật độ từ khoá”. Mật độ từ khoá của một trang web nào đó được tính rất đơn giản bằng (số lần từ khoá được dùng trong một trang)/ (tổng số từ trong trang đó). Mật độ từ khoá được sử dụng như một nhân tố quan trọng trong SEO. Ngày trước các thuật toán đặt rất nặng vào nhân tố này nhưng ngày nay nhân tố này không còn quá quan trọng nữa.

13. Keyword Stuffing:

Tôi tạm dich thô là “nhồi nhét từ khóa”. Vì “Keyword Density” là một nhân tố quan trọng đối với thuật toán tìm kiếm, nhiều webmaster ngày xưa đánh lừa các bộ máy tìm kiếm nhằm làm tăng mật độ từ khoá bên trong website của họ. Ngày nay kỹ thuật này không còn mấy tác dụng nữa, mà website của họ có thể bị phạt không được xếp hạng.

14. Cloaking:

Kỹ thuật này liên quan đến việc tạo một trang hiển thị các nội dung khác biệt nhằm mục đích để trang đó được xếp hạng cao và kiếm traffic từ search engine với nhiều từ khoá khác nhau. Việc làm này được coi là spam và bạn có thể bị phạt với hầu hết các bộ máy tìm kiếm.

15. Web Crawler:

Thuật ngữ này cũng có thể được gọi theo cách khác là máy tìm kiếm (search bot) hoặc con nhện (spider). Đó là một chương trình máy tính duyệt các trang web cho bộ tìm kiếm web. Web Crawler này luôn luôn sục sạo mọi liên kết, mọi trang web mới. Đây là khâu đầu tiên của quá trình xếp hạng các trang web.

16. Duplicate Content:

Tạm dịch là “nội dung trùng lặp”. “duplicate content”: Là sự trùng lặp nội dung trên 1 Web hay nhiều Web. Bạn nên tránh sao chép dữ liệu từ người khác vì: Bạn có thể bị các bộ máy tìm kiếm trừng phạt.

17. Canonical URL (hoặc Normalized URL):

  • Canonical là thẻ được rất nhiều anh em Seoer sử dụng. Đây là một thẻ khá hay và giúp ích khá nhiều trong SEO.
  • Canonical URL: Là kỹ thuật chuẩn mực hoá các URL (Uniform Resource Locator), hoặc có thể gọi đơn giản là các liên kết (link). Các bộ máy tìm kiếm sử dụng kỹ thuật chuẩn mực hoá URL để ấn định mức độ quan trọng của các trang web hoặc làm giảm thiểu việc liệt kê những trang giống nhau.
  • Cú pháp viết thẻ Canonical: <linl rel=”canonical” href=”URL địa chỉ website của bạn”>

18. Robots.txt:

  • File Robots.txt được sử dụng để: Hướng dẫn công cụ tìm kiếm tự động đến những trang nào mà bạn muốn nó tìm kiếm. Sau đó thì index trang đó. Hầu hết trang web nào cũng có những thư mục và files không cần đến robot của công cụ tìm kiếm ghé thăm. Do vậy tạo ra file robots.txt có thể giúp bạn trong SEO.
  • Đây là một file được đặt ở thư mục gốc trong tên miền của bạn (root folder). File này dùng để báo cho các “search bot” về cấu trúc của website.
  • Ví dụ: thông qua robots.txt bạn có thể báo cho “search bot” không được phép truy cập vào những thư mục nhất định bên trong website của bạn.
    Trên đây là 18 thuật ngữ SEO thường dùng. Hi vọng bài viết hữu ích với các bạn!

>>> Xem thêm các bài viết khác về SEO. TẠI ĐÂY.

Top