20 ปี ของการอัพเดท Google Algorithm 2003-2023

สารบัญ

สถิติการอัพเดท Google Algorithm ในช่วง 3 ปีที่ผ่านมา

         ตัวเลขสถิติตรงนี้เป็นสิ่งที่น่าสนใจมาก ๆ ครับ เพราะค่อนข้างตอบได้ว่าในช่วง 3-4 ปีที่ผ่านมา Google กำลังโฟกัสไปที่อะไร? จุดไหน? และอย่างที่เห็นครับ เกิดการอัพเดทของ Core Update ไปแล้วกว่า 9 ครั้ง ใน 3 ปี ซึ่งคนในวงการ SEO ต่างทราบกันดีว่า แรงกระแทกที่อาจได้รับนั้น น่ากลัวทุกครั้ง.. แต่อย่างไรก็ตาม ถ้าคุณพัฒนา SEO ได้อย่างถูกต้อง ผลกระทบในแง่ลบ ก็แทบจะไม่ส่งผลถึงอันดับของคุณเลยด้วยซ้ำ

         และ ความถี่ของการอัพเดทในช่วงหลังมา ถือว่าเป็นตัวเลขที่ถี่มาก (27ครั้ง) และวนอยู่ใน Algorithm เพียง 4 ตัว ดังนี้

1. Core Update

เป็นการอัพเดทในวงกว้างของอัลกอริทึมเอง และระบบการค้นหา ซึ่งส่งผลต่อการตอบสนองการจัดอันดับที่ดีขึ้น

2. Review Update

เป็นระบบที่ Google ออกมาเพื่อให้คะแนนกับการเขียนรีวิวที่มีคุณภาพสูง ทั้งในบทความ และหน้าเว็บไซต์ โดยให้ความสำคัญกับ บทวิเคราะห์เชิงลึก และการแสดงความคิดเห็นเป็นหลัก

3. Spam Update

Google ใช้ระบบ AI ที่มีชื่อว่า ‘SpamBrain‘ ตั้งแต่เริ่มใช้งานในปี 2021 ก็ตรวจพบเว็บไซต์สแปมไปแล้วกว่า 200 เท่า เทียบกับปริมาณทั้งหมดที่เกิดขึ้นใน 20 ปีที่ผ่านมา

4. Helpful Content

เป็นอัพเดทที่พูดถึงารสร้างคอนเทนต์ที่เป็นประโยชน์จริงๆ แก่ผู้อ่าน โดยยึดหลัก E-E-A-T 

2020 – 2023 : ยุคเติมเต็ม

         รองลงมาจากการ Algorithm ทั้ง 4 ข้างต้น ก็มีอีก 3 ตัวที่เหมือนเป็น Sub เสริมย่อยเพิ่มขึ้นมา ทำให้สามารถรวมได่ว่า ใน 4 ปี ที่ผมเรียกว่ายุคเติมเต็ม รวมแล้วมีท้้งหมด 7 รายการ และแต่ละรายการ ก็คือตัวที่ผ่านการพัฒนาเพื่อเข้ามาเต็มเต็มช่องว่างของยุคก้าวข้าม และ จุดเริ่มต้นได้เป็นอย่างดี

Page Experience Update

เป็นอัลกอริทึมที่รวมเมตริกที่วัดผลลัพท์ของประสบการณ์ผู้ใช้ เพื่อนำผลมาประเมินการจัดอันดับ เช่น Page speed, Mobile-Friendly และความปลอดภัยของเว็บไซต์ (SSL)

Product Reviews Update

เพื่อรองรับการเข้าสู่ยุคของ E-commerce เต็มรูปแบบ เว็บไซต์ที่สามารถสร้างประสบการณ์การซื้อ-ขายที่ดีต่อผู้ใช้บริการ แน่นอนว่ามีผลดีต่อการทำ SEO อย่างแน่นอน โดยมีปัจจัยดังนี้

  • ข้อมูลสินค้า ราคา ถูกต้อง
  • มีรูปภาพประกอบชัดเจน
  • ให้ค่าของคะแนนรีวิวจากลูกค้า
  • มีการทำ Schema markup 

ออกมาเพื่อจัดการกับเว็บไซต์ที่ใช้การสแปมเพื่อหวังผลการทำอันดับผ่านการสร้างลิ้งค์ โดยเพิ่มเงื่อนไขการพิจารณาลิ้งค์ที่ละเอียดมากยิ่งขึ้น ดังนี้

  • Link Quality : ต้องมีความเกี่ยวข้องจริง ๆ 
  • Link Diversity : ต้องมีความหลากหลาย (Referring Domain)
  • Anchor Text : ไม่สแปมข้อความของลิ้งค์ ที่ก่อให้เกิดความเข้าใจผิด หรือมีจำนวนเยอะเกินไป
  • Link Velocity : อัตราการได้รับลิ้งค์จำนวนมาก ในระยะเวลาอันรวดเร็ว อาจมองได้ว่าตั้งใจสแปม เพื่อเร่งผลการจัดอันดับ

2013 – 2019 : ยุคเติบโต

         รองลงมาจากการ 4 Algorithm ที่อัพเดทหลัก ๆ ในช่วง 4 ปีข้างต้นนั้น ก็มีอัลกอริทึมอีกเยอะมาก ที่เกิดขึ้นในช่วงตั้งแต่ปี 2013 จนถึง 2019

3 จุดเปลี่ยนสำคัญ

  • Hummingbird และ Pigeon คือจุดเปลี่ยนครั้งใหญ่ของ SEO เพราะพุ่งปรับเปลี่ยนเข้าไปในองค์ประกอบหลัก นั้นก็คือ การค้นหา 
  • การมาของ Featured Snippets มีทั้งคนชอบ เพราะได้รับความน่าเชื่อถือจาก Google แต่สำหรับคนที่ไม่ชอบ เพราะผู้ใช้ส่วนหนึ่ง ไม่คลิกกดคลิกเข้าไปในเว็บไซต์แล้ว
  • ในช่วงปี 2018 มีประกาศจาก Google อีกครั้ง ว่าด้วยเรื่องของ “E-A-T” โดยลดความสำคัญแก่เว็บไซต์ที่มีเนื้อหาผิด แล้วเพิ่มคุณค่าให้กับเว็บไซต์ที่ทำเนื้อหาได้น่าเชื่อถือ ถูกต้อง และมีประโยชน์อย่างแท้ โดย E-A-T นี่เอง คือ หลักเกณฑ์สำคัญ เพื่อประเมินคุณภาพเนื้อหาของ Google

Hummingbird Update 2013

ชื่อฟังดูไพเราะกับเจ้านก “ฮัมมิ่งเบิร์ด” ที่เกี่ยวข้องกบับการค้นหาโดยเฉพาะ (Search) เพื่อปรับปรุงคุณภาพการค้นหาของผู้ใช้ให้ดียิ่งขึ้น 

โดยเฉพาะการทำความเข้าใจ รูปแบบของคำถามที่มีความซับซ้อน (Semantic search)

รวมไปถึงการให้ความสำคัญกับเว็บที่รองรับการใช้งานเว็บไซต์ผ่านโทรศัพท์มือถือ (Mobile optimization)

Pigeon Update 2014

เป็นอัลกอริทึมที่เป็นจุดเปลี่ยนของการค้นหาในท้องถิ่น (Local Search) ก็คือสามารถให้ผลลัพท์ที่เปลี่ยนแปลงได้ตามตำแหน่งของผู้ค้นหาได้ 

และให้ความสำคัญกับการสร้างแบรนด์ของธุรกิจในท้องถิ่น (Google My Business) โดยมีเงื่อนไขที่เพิ่มขึ้น ดังต่อไปนี้

  • Directory listings : การที่เว็บไซต์ได้รับการบันทึกในเว็บน่าเชื่อถือ เช่น Yelp และ TripAdvisor เป็นต้น
  • Reviews : ให้น้ำหนักแก่คำรีวิวจากลูกค้า 

RankBrain Update 2015

เป็นอัลกอริทึมที่ใช้ระบบ Machine Learning ในการประมลผล รายละเอียดการอัพเดททาง Google ไม่ได้ลงเนื้อหามากนัก

แต่.. ก็ถือเป็นการประกาศที่เป็นใน ๆ ว่า อัลกอริทึมหลังจากนี้ กำลังเข้าสู่ยุคการพัฒนาที่ก้าวกระโดด มีระบบความคิดที่เก่งขึ้น!

Intrusive Interstitials Update 2017

ว่าด้วยเรื่องของการจัดการกับโฆษณาที่รบกวนหน้าเว็บ โดยเฉพาะการแสดงผลโฆษณาที่แสดงขึ้นก่อนเข้าสู่เนื้อหาหลัก ที่ไม่เหมาะสม และรบกวนผู้ใช้งาน เช่น ต้องคลิกก่อนอ่าน, Pop-up, โฆษณาผิดกฏหมาย และระยะเวลาแสดงผล เป็นต้น

ข้อไม่ใช่การอัปเดตอัลกอริทึม แต่เป็นการเปลี่ยนแปลงการแสดงผลลัพท์ในหน้าค้นหาของ Google (SERPs) ที่สำคัญ จึงอยากยกมาไว้ใน Timeline ของอัลกอริทึม

โดยการแสดงตัวอย่างข้อมูลส่วนหนึ่งแก่ผู้ค้นหา ในตำแหน่งบนสุด หรือทีเรียกว่าอันดับ 0 (Zero Ranking)

BERT Update 2019

เป็นอัลกอริทึมที่เข้ามาเสริมทัพการประมวลผลของข้อความค้นหาเชิงสนทนา และการตอบคำถามแบบภาษาธรรมชาติ (NLP) 

รวมไปถึงสามารถเข้าใจโครงสร้างข้อมูลทางสถิติ (Structured Data) ไปจนถึงงานวิจัยได้ดีขึ้น 

2011 – 2012 : ยุคก้าวข้าม

ระหว่างปี 2011 – 2012 เป็นช่วงแห่งการเปลี่ยนผ่าน หลังจาก Google Search เริ่มอัพเดทอัลกอริทึมตัวแรกในปี 2003 โดยสามารถดูทิศทางการพัฒนาได้โดยอ้างอินกระแสโลกที่พัฒนาไปข้างหน้า อย่างเรื่องของ Social Network, Web 2.0, Smartphone และ 4G เป็นต้น

3 จุดเปลี่ยนสำคัญ

  • Google Map เปิดตัวแอพบน IOS และมี Street View ในปี 2012
  • ตัวแทนของ Algorithm ที่เป็นจุดศูนย์รวมเรื่อง Backlink คือ “Penguin
  • และ “Panda” ก็คือตัวแทนของการวัดผลคุณภาพคอนเทนต์ ในเว็บไซต์ทั้งหมด ที่ยังคงใช้อยู่จนถึงปัจจุบัน…

Panda Update 2011

แพนด้า เป็นอัลกอริทึมที่พูดถึง Content Quality เป็นหลัก และค่าที่ช่วยในการวัดผลคุณภาพของเนื้อหา เช่น อัตราการคลิก (CTR), อัตราการตีกลับ (Bounce Rate) 

รวมไปถึงการจัดการเกี่ยวกับ Ad placement ตำแหน่งการวางโฆษณาที่ดูเยอะ และก่อนกวนการอ่านเนื้อหาหน้าเว็บ

Freshness Update 2011

เป็นอัลกอริทึมที่มีชื่อใกล้เคียงกับหัวข้อที่อัพเดทมากที่สุด หลัก ๆ พุ่งไปในเรื่องของ Content recency ความสดใหม่ ของเนื้อหาภายในเว็บไซต์ และให้ความสำคัญกับ Query intent การเข้าใจว่าผู้ค้นหามีจุดประสงค์อะไร? ในการค้นหาในแต่ละครั้ง 

Page Layout Update 2012

ว่าด้วยเรื่องของโครงสร้างการจัดเรียงเนื้อหาภายในหน้าเว็บ Content visibility โดยใน Panda Update ได้พูดถึงตำแหน่งการวางโฆษณาไปแล้ว 

ในครั้งนี้ก็พุ่งเป้าไปที่องค์ประกอบส่วนอื่น ๆ เช่น การทำ Pop-up, การเข้าถึงเนื้อหาที่ยุ่งยาก และ JavaScript ที่รบกวนผู้ใช้งาน

Venice Update 2012

เป็นอัลกอริทึมที่ออกมาเพื่อสนับสนุน Google map และการค้นหาแบบ Local SEO เช่น ค้นหาร้านอาหารใกล้ฉัน และการระบุตำแหน่งที่ตั้งในท้องถิ่น

Penguin Update 2012

แพนกวิ้น อัลกอริทึมที่เป็นชนิดของสัตว์ มักมาในรูปแบบของการเปลี่ยนแปลงครั้งสำคัญเสมอ อย่างในครั้งนี้ พูดถึงเรื่องของ Quality Backlink โดยเข้ามาจัดการกับลิ้งค์ย้อนกลับที่ไร้คุณภาพ 

โดยใช้เงื่อนไข 3 ข้อในการประเมิน ดังนี้

  • Link Spam : การทำสแปม
  • Anchor text : การกำหนดข้อความ
  • Link Diversity : ความหลากหลายของลิ้งค์

Exact Match Domain Update 2012

เป็นอัลกอริทึมที่สร้างความเปลี่ยนแปลงให้กับฝั่งนักทำ SEO ได้มากมาย ณ ช่วงเวลานั้น เพราะหากนำ Keyword มาใช้เป็นชื่อเว็บไซต์ (Domain name) มีโอกาสการได้รับการจัดอันดับที่สูงกว่า

โดยหลักการนี้ก็นำไปสู่การส่งเสริมการสร้างแบรนด์ของธุรกิจนั่นเอง Branding

2003 – 2010 : ยุคเริ่มต้น

         อย่างที่ทราบกันดีกว่า การอัพเดทที่เกิดขึ้นในทุก ๆ ครั้งนั้น… Google ไม่ได้บอกรายละเอียดที่ลึกมากนัก ซึ่งทำให้หน้าที่หลักต้องตกมาอยู่กับผู้ทำ SEO ทั้งหลาย ซึ่งผู้คนเหล่านี้ก็อาศัยการสังเกต และเก็บสถิติจากเว็บที่ดูแลอยู่ในมือ 

         การศึกษา Timeline ย้อนหลังของการอัพเดทที่ผ่านมา สามารถช่วยให้เข้าใจที่มาที่ไปของเกิดในแต่ละครั้งได้ชัดขึ้น… แน่นอนว่า หากทุกท่านที่อ่านบทความมาถึงตรงนี้ จะเห็นเริ่มเห็นภาพไปในแนวเดียวกันกับผมแล้ว ก็คือ Google พยายามพัฒนาเพื่อให้เป็นเครื่องมือค้นหาที่ดีที่สุดอยู่เสมอ (Search Engine) เพื่อ = ช่วยให้ผู้คนได้รับผลลัพท์การค้นหาที่ดีที่สุด

         เพราะฉะนั้น หลังจากเรารู้เจตนาของ Google แล้ว ทำให้ยิ่งชัดเจนว่า การอัพเดทในหลาย ๆ ครั้ง ล้วนแล้วอ้างอิงกับสถานการณ์ปัจจุบัน ณ ช่วงเวลานั้น และพฤติกรรม ความต้องการของมนุษย์ที่พัฒนาไปข้างหน้าอยู่เสมอ

3 จุดเปลี่ยนสำคัญ

  • หลังจากการอัพเดทของ Vince Update ที่ว่าด้วยการสร้างแบรนด์  และความน่าเชื่อถือ ค่า Domain Authority (DA) ที่พัฒนาโดยบริษัท Moz.com ก็เริ่มได้รับความนิยมจากนัก SEO ทั่วโลก และยึดว่าค่า Metric นี้ คือ 1 ในปัจจัยการทำอันดับจนถึงปัจจุบัน
  • ในช่วงปี 2009-2010 โซเชี่ยลมีเดียอย่าง Facebook Twitter ได้รับความสนใจจากผู้คนทั่วโลก และ Google+ ก็เปิดตัวตามมาในปี 2011
  • ในปี 2006 ไฟล์ sitemap.xml เข้ามามีบทบาท และได้รับการพัฒนาขึ้นโดย Google อ่านต่อ…

Florida Update 2003

เป็นอัลกอริทึมตัวแรกที่ Google นำเข้ามาช่วยประมวลผลการทำ SEO โดยมุ่งให้ความสำคัญไปในเรื่องของการกำหนด Meta tags

Jagger Update 2005

กว่า 2 ปี นับจากอัลกอริทึมตัวแรก กลับมาในปีนี้ Google ก็พูดถึงเรื่อง คุณภาพของเนื้อหามากขึ้น และการใช้เทคนิค SEO ที่ไม่เหมาะสม เช่นการคัดลอกเนื้อหาซ้ำ ๆ และเริ่มสนใจประสบการณ์ของผู็ใช้ (User experience)

Big Daddy Update 2006

Google โฟกัสไปที่เรื่องของประสบการณ์ของผู้ใช้เป็นหลัก โดยเพิ่มเงื่อนไขที่มากขึ้นต่อการทำอันดับ เช่น Site speed และการได้รับ Backlink 

Vince Update 2009

ถือเป็น 1 ในอัลกอริทึมที่อัพเดทมาช่วยเพิ่มประสิทธิภาพในภาพรวมของ Google Search เพราะมีการโฟกัสไปที่ Brand Authority, Social signals และสนใจ User engagement นั่นเอง

Caffeine Update 2010

ว่ากันว่าเป็นอัลกอริทึมที่เข้ามาเปลี่ยนแปลงการจัดทำดัชนี (Indexing) ที่เร็วกว่าเดิมมาก ๆ เพื่อรองรับเนื้อหาประเภท ข่าว, กระแส ที่อาศัยความรวดเร็วในการแสดงผล

MayDay Update 2010

ในปีนี้ Google เริ่มให้ความสนใจต่อ long-tail keyword เป็นพิเศษ โดยบอกว่า “เว็บที่ทำเนื้อหาแบบเฉพาะเจาะจง มีโอกาสทำอันดับได้ดีขึ้น” และลงโทษเว็บไซต์ที่พยายามทำ SEO มากจนเกินไป อย่างเช่น การใส่คำค้นหามากเกินไป (Keyword stuffing)

ข้อมูลอ้างอิง

ความรู้ SEO ที่เกี่ยวข้อง

Search Volume หรือ ปริมาณการค้นหามีความสำคัญมาก ๆ ในการทำ SEO
โปรแกรมฟรี ที่พัฒนาโดย Google สามารถวัดผลการทำ SEO ได้ดี
Open Graph ช่วยให้การแชร์ข้อมูลบน Social Media ถูกต้อง