สรุปเนื้อหาจากงาน Google Search Central Live 2024
Google Search Central Live 2024 คืองานสัมมนาที่ทาง Google จัดขึ้นมาเพื่ออัปเดตข้อมูลด้าน Google Search โดยเฉพาะ จัดเต็มไปด้วยเนื้อหาเรื่องการทำ SEO (Search Engine Optimization), Search Engine, Search Console และ Google Trends ซึ่งงานนี้ได้ถูกจัดขึ้นในวันที่ 9 สิงหาคม 2024 ณ โรงแรมคาร์ลตัน กรุงเทพ สุขุมวิท มีทั้งเจ้าของเว็บไซต์ นักพัฒนาเว็บไซต์ ผู้เชี่ยวชาญด้าน SEO และนักการตลาดดิจิทัลจากองค์กรต่าง ๆ มาเข้าร่วมมากมาย แน่นอนว่า ANGA Bangkok ก็ได้รับเชิญให้เข้าร่วมงานสัมมนาในครั้งนี้ด้วยเช่นกัน
Google Search Central Live 2024 หรือชื่อเดิมคือ Webmaster Conference เป็นงานที่คนในแวดวง SEO ต่างเฝ้ารอคอยมาตลอด หลังจากที่ห่างหายไปเป็นระยะเวลากว่า 5 ปี (ครั้งล่าสุดจัดขึ้นเมื่อปี 2019 ช่วงก่อนการระบาดของโควิด) และในครั้งนี้ทาง Google ก็ยกขบวนขนทัพข้อมูลใหม่ ๆ มาอัปเดตให้เราทราบกันเพียบ ใครที่มีปัญหาเรื่องอันดับเว็บไซต์ร่วง ยอดทราฟฟิกตก หรือกำลังสงสัยเรื่องการทำ SEO ในปี 2024 อยู่ ต้องตามมาหาคำตอบในบทความนี้ บอกเลยว่าไม่ควรพลาดด้วยประการทั้งปวง
มีอะไรใหม่ใน Google Search บ้าง?
“What’s New in Search?” โดย Gary Illyes (Search Advocate Google) ที่พูดถึงเรื่องการปรับปรุงระบบ Google Search ที่ช่วงผ่านมา ซึ่งสามารถสรุปได้ดังนี้
- ในปี 2021 Google มีการทดสอบระบบการค้นหามากกว่า 800,000 ครั้ง
- มีการเปิดเผยเรื่องการทดสอบประมาณ 4,300 ครั้ง
- ประเด็นเอกสารของ Google ที่หลุดออกมาเป็นเอกสารเก่าที่ไม่ได้มีผลกับปัจจุบันแล้ว
- อัปเดต SEO Start Guide ให้โฟกัสเฉพาะเรื่องสำคัญและเนื้อหาล่าสุดสำหรับนักการตลาด SEO
- อย่ากังวลกับ Google Core Updates มาก แนะนำให้ปรับปรุงเว็บไซต์ให้มีประสิทธิภาพที่ดีขึ้นอย่างต่อเนื่อง แล้วเว็บไซต์จะถูกดึงไปจัดอันดับในตำแหน่งที่ดีขึ้นเอง
- Google SGE (Search Generative Experience) หรือ AI Overview จะเป็นประโยชน์ต่อคนทำ SEO อย่างมาก เพราะเปลี่ยนจากการจัดอันดับไปเป็นการถูกกล่าวถึงในคำตอบที่สรุปโดย AI เพราะผู้ใช้งานจะมองเห็นคุณง่ายขึ้นและยังสามารถคลิกเข้าไปที่เว็บไซต์ของคุณเพื่ออ่านข้อมูลต่อได้อีกด้วย
การทำงานของ Google Search ในปี 2024
“How Search Works?” โดย Cherry Prommawin (Search Advocate Google) เกี่ยวกับกลไกการทำงานของ Google Search ที่แบ่งออกเป็น 3 ขั้นตอนหลักเช่นเดิม แต่สิ่งที่เปลี่ยนไปคือแทนที่ Ranking ด้วย Serving นั่นเอง (Crawling > Indexing > Serving) ซึ่งเหตุผลที่เปลี่ยนจาก Ranking เป็น Serving ก็เพราะว่า Google ต้องการเตรียมแพลนสำหรับการค้นหารูปแบบใหม่ในอนาคต
Crawling
Crawling คือสัญญาณที่ใช้ในการตัดสินใจว่า Google Bot จะเข้าไปอ่านข้อมูลบนเว็บไซต์คุณบ่อยแค่ไหน
- How Fast the site reacts : เว็บไซต์มีการตอบสนองต่อผู้ใช้งานและโหลดเร็วแค่ไหน
- Quality of content in general : คุณภาพของเนื้อหาบนเว็บไซต์เป็นประโยชน์และมีความสำคัญกับผู้ใช้งาน ซึ่งไม่ใช่แค่หน้าใดหน้าหนึ่ง แต่จะต้องมีคุณภาพทั้งเว็บไซต์
- Any potential server errors : เมื่อเว็บไซต์มีปัญหาเชิงเทคนิค Google Bot จะเข้าไปอ่านเว็บไซต์น้อยลง เช่น HTTP error 503 หรือ Error Code 429 เป็นต้น
- การที่เว็บไซต์ถูก Google Bot เข้ามาตรวจสอบบ่อย ไม่ได้เกี่ยวข้องกับการจัดอันดับบน Google
- Google ใช้อัลกอริทึมเดียวกับ Google Chrome เวอร์ชันล่าสุดในการประมวลผลเว็บไซต์ของคุณ เพราะฉะนั้นหากต้องการตรวจสอบคุณภาพเว็บไซต์ของคุณ ก็สามารถใช้ Google Chrome ได้เลย
Indexing
ระบบ Index ของ Google เปรียบเสมือนคลังข้อมูลขนาดใหญ่ที่สามารถเก็บข้อมูลเว็บไซต์ได้จำนวนมหาศาล หากนำข้อมูลต่าง ๆ มาพิมพ์และพรินต์เป็นกระดาษออกมา บอกเลยว่าสามารถส่งไปถึงดวงจันทร์ได้ 12 ครั้งเลยทีเดียว
- Google พยายามทำความเข้าใจหน้าต่าง ๆ บนเว็บไซต์อย่างเต็มที่ โดยมีการประมวลผลจาก Attribute และ Signal ต่าง ๆ เช่น ลิงก์ที่ถูกส่งเข้ามายังหน้าเว็บไซต์นี้, อายุของหน้าเว็บไซต์นี้, ชื่อของรูปภาพ และรวมไปถึงการตั้ง Alt Text ในรูปภาพด้วย
- Meta Keywords ไม่เคยเป็นสิ่งสำคัญที่ Google ให้ค่าเลย แต่หลายเว็บไซต์ก็ยังมีความเชื่อผิด ๆ ในเรื่องนี้อยู่
- Google สามารถทำความเข้าใจรูปภาพที่ปรากฏขึ้นบนเว็บไซต์ได้ โดยที่ไม่ต้องอ่านชื่อไฟล์หรือ Alt Text เลย
- Canonical Tag (rel=“canonical”) ยังคงเป็นสิ่งสำคัญที่ควรทำ เพื่อแจ้ง Google ให้ทราบว่าคุณต้องการส่งพลังไปที่หน้าใด ในกรณีที่มีเนื้อหาซ้ำกันหรือใกล้เคียงกันมากกว่า 2 หน้าขึ้นไป
- Index Selection คือกระบวนการจัดเก็บข้อมูลแต่ละหน้าบนเว็บไซต์และนำมาเข้าสู่ระบบ Index ของ Google โดย Google จะคัดเลือกเฉพาะหน้าเว็บไซต์ที่มีคุณภาพสูงเท่านั้น
หากคุณสงสัยว่าหน้าเว็บของคุณถูกเก็บข้อมูลไปหรือยัง สามารถทำได้ง่าย ๆ โดยการพิมพ์ “site:ลิงก์หน้าที่ต้องการตรวจสอบ” บน Google Search Bar ถ้าเก็บข้อมูลหรือจัดทำดัชนี (Index) แล้ว หน้าดังกล่าวจะปรากฏขึ้นมาให้คุณเห็นและคลิกเข้าไปอ่านต่อได้ แต่ถ้า Google ระบุว่าหน้าเพจของคุณ Discovered – Not Index แปลว่าหน้าดังกล่าวยังไม่ผ่านกระบวนการ Index Selection อาจจะเกิดได้จากหลาย ๆ ปัจจัยประกอบกัน
Serving
Serving ที่เข้ามาแทนที่ Ranking คือการที่ Google จะแสดงผลการค้นหาที่ตรงกับความต้องการของผู้ใช้งานมากที่สุด โดยการตีความคำถามหรือข้อความที่ถูกพิมพ์มาบน Google Search Bar (Interpreting the query) ซึ่งจะโฟกัสไปที่คำหลัก ๆ และไม่ได้สนใจ Stop Words อย่าง a, an, the, also, just หรือพวกคำฟุ่มเฟือยที่ไม่ได้มีความหมายอะไรเป็นพิเศษ
- ตัวอย่างคำค้นหา : ย่างไก่ให้อร่อย
- ทำที่ Google โฟกัส คือ “ไก่” และ “อร่อย”
อย่างไรก็ตามก็ยังมีข้อยกเว้นสำหรับคำค้นหายอดฮิต อย่างชื่อภาพยนตร์ ซึ่ง Google อาจจะใช้วิธีการจัดอันดับที่แตกต่างออกไปได้ เพื่อให้ผลลัพธ์ที่ออกมาตรงกับความต้องการของผู้ใช้งานมากที่สุด
ข้อมูลเพิ่มเติม
- ปัจจุบันนี้มี URLs มากกว่าหนึ่งล้านล้านที่ถูกค้นพบโดย Google จึงอาจส่งผลทำให้ Google URL Discovery ค้นหาหลาย ๆ เว็บไซต์ไม่เจอ
- Google สามารถค้นพบหน้าใหม่ ๆ ผ่าน Internal Link ที่เชื่อมต่อกันบนเว็บไซต์เดียวกัน ถ้าคุณไม่มีการทำ Internal Link เลย Google อาจจะใช้เวลานานกว่าปกติในการค้นพบ URL ใหม่ ๆ เพราะฉะนั้น ถ้าคุณอยากให้ Google พบหน้าใหม่ ๆ ที่คุณอัปโหลดขึ้นไปอย่างรวดเร็ว ก็อย่าลืมใส่ Internal Link ด้วยล่ะ
จะทำอย่างไรกับสิ่งที่เกิดขึ้นหลัง Core Updates
“Quality & Updates” โดย Nut Janekitiworapong (Analyst, Trust & Safety Search Google) ต้องบอกว่าหลังจากที่มีการปล่อย Google March Core Updates 2024 ออกมา หลาย ๆ เว็บไซต์น่าจะมีปัญหาเรื่อง Traffic ตกลง เพราะอันดับของเว็บไซต์มีการเปลี่ยนแปลง ซึ่งสิ่งที่เกิดขึ้นนี้มีสาเหตุมาจากอะไรและเป็นเรื่องดีหรือร้ายกันแน่? คำตอบคือเป็นเพราะว่าในแต่ละวัน Google มีการตรวจพบหน้าที่เป็นสแปมไม่ต่ำกว่า 40,000 ล้านหน้า พอมีการปรับปรุงอัลกอริทึมใน Core Updates จึงทำให้อันดับเปลี่ยนแปลงได้ ซึ่งเป็นเรื่องปกติ ไม่ใช่การโดนลงโทษจาก Google แต่อย่างใด และสิ่งที่คุณต้องทำต่อไปมีดังนี้
1. เข้าใจความแตกต่างของการ Updates แต่ละแบบ
- Spam Updates : เกิดขึ้นเมื่อ Google ตรวจพบการทำผิดกฎ จากนั้นจะแจ้งเตือนผ่าน Google Search Console
- Core Updates : การอัปเดตใหญ่ที่ส่งผลโดยรวม ไม่ได้เจาะจงไปที่เว็บไซต์ใดเว็บไซต์หนึ่ง
- Special Updates อย่าง HCU : การอัปเดตที่เน้นการปรับปรุงเฉพาะด้าน อย่างเช่น คุณภาพของเนื้อหา เป็นต้น
2. วิเคราะห์สาเหตุที่อาจทำให้อันดับลดลง
- Spam Content : เนื้อหาที่คุณภาพต่ำไร้ประโยชน์ หรือมีการใส่คีย์เวิร์ดมากเกินไป
- Cloaking : การแสดงเนื้อหาที่แตกต่างกัน ระหว่าง Google กับผู้ใช้งาน
- Doorway Pages : การสร้างหน้าเว็บที่มีแต่ข้อความเดิม ๆ หรือคีย์เวิร์ดจำนวนมาก เพื่อหลอก Search Engine
- Scraped Content : การคัดลอกเนื้อหาจากเว็บไซต์อื่นมาเผยแพร่ โดยที่ไม่ได้มีการเปลี่ยนแปลงอะไรจากเดิม หรือสร้างคุณค่าเพิ่มเติมเลย
- Link Spam : การสร้างลิงก์ที่ไม่มีคุณภาพจำนวนมาก
- Hacked Content : เนื้อหาที่ถูกบุคคลภายนอก (แฮ็กเกอร์) เข้ามาแก้ไขหรือปรับเปลี่ยนเป็นเนื้อหาอื่น ๆ โดยที่ไม่ได้รับอนุญาต
3. ตรวจสอบและปรับปรุง
เมื่อมีความผิดปกติเกิดขึ้นกับเว็บไซต์ให้เข้าไปอ่านรายละเอียดเพิ่มเติมที่ goo.gle/spam-policy
4. 5 เช็กลิสต์ในการประเมินเว็บไซต์ตัวเอง
- People-first Content : เนื้อหาที่คุณทำขึ้นมา เน้นสร้างประโยชน์ต่อผู้ใช้งานเป็นอันดับแรกหรือเปล่า?
- Expertise Questions : เนื้อหาบนเว็บไซต์แสดงถึงความเชี่ยวชาญ ความรู้ลึกรู้จริง และความน่าเชื่อถือของผู้เขียนหรือไม่ อย่างการมีข้อมูลทุกอย่างครบถ้วน ทั้งข้อความ รูปภาพ วิดีโอ คำอธิบาย และคำตอบของคำถามที่คนสงสัย โดยที่ผู้ใช้งานไม่ต้องไปค้นหาข้อมูลเพิ่มเติมจากแหล่งอื่น ๆ ต่อ
- Content and Quality : เนื้อหาคุณภาพสูงที่ให้ข้อมูลอย่างครบถ้วน ครอบคลุมทุกหัวข้อที่เกี่ยวกับเรื่องนั้น ๆ และเป็นเนื้อหาที่มีการอัปเดตสดใหม่ คุ้มค่ากับการที่ผู้ใช้งานจะกดอ่าน ซึ่งคอนเทนต์สั้น ๆ อาจไม่ตอบโจทย์กับ Google และไม่เพียงพอกับผู้ใช้งานอีกต่อไป
ตัวอย่าง : เว็บไซต์รีวิว TV
- เว็บไซต์ที่ 1 : เจ้าของเว็บไซต์เขียนรีวิว TV จากประสบการณ์ที่ใช้งานเอง มีการให้คะแนน TV อย่างตรงไปตรงมา
- เว็บไซต์ที่ 2 : เว็บไซต์ที่เอาข้อมูลการรีวิว TV จากหลาย ๆ เว็บไซต์มาประกอบกัน หรือเขียนสรุปจากข้อมูลเว็บไซต์ของแบรนด์ TV โดยตรง ไม่ได้มีการอ้างถึงประสบการณ์ส่วนตัวหรือความคิดเห็นส่วนตัวใด ๆ
- ผลลัพธ์ : Google ชื่นชอบเว็บไซต์ที่ 1 มากกว่าและนำไปจัดอันดับ
*Search Quality Rater Guidelines คือคู่มือของ Google จำนวน 170 หน้า ที่จะมาแนะนำแนวทางในการทำ SEO สำหรับเว็บไซต์ เพื่อให้ได้ผลลัพธ์ที่ดีที่สุด
- Presentation & Production : การออกแบบเว็บไซต์ของคุณเอื้ออำนวยต่อการใช้งานของผู้ใช้มากแค่ไหน? เว็บไซต์ใช้งานง่าย ตัวหนังสืออ่านง่าย ใช้ภาษาที่เข้าใจง่ายไหม ไม่มีโฆษณาเด้งขึ้นมากวนระหว่างการใช้งานใช่ไหม?
- Avoid Creating Search Engine-first Content : หลีกเลี่ยงการเขียนบทความ SEO ที่มุ่งเน้นแต่การทำให้ติดอันดับ โดยที่ไม่คำนึงถึงผู้ใช้งาน ควรหันไปเขียนบทความที่เป็นประโยชน์กับผู้อ่านเป็นหลัก
Google Search ในยุค AI จะเป็นอย่างไร?
LLM หรือ Large Language Mode เป็นโมเดลอัลกอรึทึมของ Google ที่มีการเรียนรู้ข้อมูลจำนวนมหาศาล เพื่อให้ทราบรูปแบบของภาษาและความหมายของคำที่เป็นภาษาตามธรรมชาติของมนุษย์ โดยสามารถใช้ในการประมวลผลข้อมูล วิเคราะห์ และทำนายสิ่งที่อาจจะเกิดขึ้นในอนาคตได้ ด้วยเหตุนี้จึงทำให้ LLM สามารถแยกแยะเนื้อหาคุณภาพกับเนื้อหาสแปมออกจากกันได้ ไม่เพียงเท่านั้น LLM ยังเป็นอัลกอริทึมที่ได้รับการอัปเดตอย่างต่อเนื่องอีกด้วย ตรงนี้เป็นผลทำให้การวิเคราะห์ข้อมูลและแสดงผลการค้นหาของ Google มีความแม่นยำมากขึ้นเรื่อย ๆ นั่นเอง
Google แยกเนื้อหาที่เขียนโดยมนุษย์กับ AI ได้ไหม?
ทาง Google ยังคงยืนยันว่าไม่ได้สนใจเท่าไหร่ว่าเนื้อหาถูกสร้างขึ้นมาอย่างไรและด้วยวิธีการใด ตราบใดที่คุณภาพของเนื้อหาดี มีประโยชน์ และตอบโจทย์ผู้อ่าน ก็มีโอกาสที่จะติดอันดับบน Google Search ได้ทั้งสิ้น ดังนั้น สิ่งสำคัญในการสร้างเนื้อหาที่คุณควรยึดมั่นเอาไว้คือการสร้างเนื้อหาด้วยการคำนึงถึงผู้ใช้งานเป็นอันดับแรก ไม่ใช่การมุ่งมั่นที่จะทำให้ติดอันดับบน Google
“AI Overviews” กำลังจะปรากฏบน Google Search เร็ว ๆ นี้
AI Overviews เป็นชื่อใหม่ที่ถูกประกาศออกมาจาก Google ไม่มีทางคุ้นหูคุ้นตามาก่อนแน่นอน แต่ถ้าพูดถึง SGE ล่ะก็ คุณก็คงคุ้นเคยกันเป็นอย่างดี ซึ่ง AI Overviews นี้ไม่เชิงว่าเป็นฟีเจอร์ใหม่ เพราะมันถูกพัฒนาต่อยอดมาจาก SGE ซึ่งคุณคงจะได้เห็นกันในอนาคตอันใกล้นี้ โดยจะบอกว่า AI Overviews เป็นชื่อใหม่ของ SGE ก็ว่าได้
AI Overviews ที่จะปรากฏขึ้นบนการค้นหาของ Google จะช่วยสรุปเนื้อหาของข้อมูลบนหน้าเว็บไซต์ต่าง ๆ ที่ถูกคัดมาแล้วว่ามีคุณภาพและเป็นประโยชน์ เพื่อให้ผู้ใช้งานสามารถเข้าถึงข้อมูลได้อย่างรวดเร็วและสามารถทำความเข้าใจได้อย่างง่ายดาย โดยที่ไม่ต้องเปิดอ่านจากหลาย ๆ เว็บไซต์ พร้อมกับแสดงแหล่งที่มาของข้อมูลด้วย จึงเป็นเหตุให้ Google เคลมว่า AI Overviews จะเข้ามาช่วยเพิ่มยอด Click และ Traffic ให้แก่เว็บไซต์ที่ถูกนำข้อมูลไปแสดงผลบน AI Overviews นั่นเอง อย่างไรก็ตามการทำงานของ LLM ทั้งในฝั่งของ Gemini และ AI Overviews ยังคงมีข้อจำกัดในการแสดงผลข้อมูลอยู่
คำเตือนจาก Google ถึงทุกเว็บไซต์
Google เตือนให้ทุกเว็บไซต์ตรวจสอบความถูกต้องของข้อมูลที่มาจาก AI (Generated Content) ก่อนเผยแพร่เสมอ ไม่ว่าคุณจะใช้ AI ตัวไหนในการหาข้อมูลหรือเขียนบทความให้ก็ตาม เพราะข้อมูลที่ได้จาก AI เป็นข้อมูลที่มาจากหลากหลายแหล่ง ไม่ได้มีการยืนยันจากผู้พัฒนาว่าข้อมูลที่แสดงออกมาเป็นข้อมูลที่ถูกต้อง 100% เพื่อป้องกันปัญหาเรื่องการให้ข้อมูลที่ผิดพลาด จึงอาจจะทำให้เกิดปัญหาต่อผู้อ่านในอนาคตได้
บทสรุป
สรุปเนื้อหาจากงานสัมมนา Google Search Central Live 2024 ได้ว่าในภาพรวมนั้น ทาง Google มุ่งเน้นไปที่การให้ความสำคัญกับเนื้อหาที่มีคุณภาพ ตอบโจทย์ผู้ใช้งาน เขียนโดยผู้เชี่ยวชาญ และมีความสดใหม่ไม่ซ้ำใคร ซึ่งภาษาที่ใช้จะต้องเป็นภาษาที่อ่านแล้วเข้าใจง่าย รวมทั้งอย่าลืมตรวจสอบความถูกต้องของข้อมูลก่อนเผยแพร่ด้วย โดยเฉพาะเนื้อหาและข้อมูลที่ได้มาจากการ การ Generate ของ AI
นอกเหนือจากประเด็นต่าง ๆ ในบทความนี้แล้ว ยังมีเรื่องอื่น ๆ ที่ทางแองก้าจะมาอัปเดตให้ทุกท่านทราบด้วย ไม่ว่าจะเป็นเทคนิคการดูกราฟ Google Search Console, แชร์เคล็ดลับใช้ Google Trends สำหรับคนทำ SEO จาก Google, เทคนิคดันอันดับ Video ให้อยู่เหนือคู่แข่ง และเคล็ดลับทำ SEO สำหรับเว็บไซต์หลายภาษา เป็นต้น ถ้าอยากรู้อย่าลืมไปติดตามอ่านกันได้ที่ https://anga.co.th/blog/ เร็ว ๆ นี้!