เคยกันไหมเวลาที่เราได้ผลลัพธ์จาก Generative AI แต่ผลลัพธ์เหล่านั้นกลับไม่ถูกต้องตามที่คาดไว้ หรือไม่เป็นความจริง โดยที่เราไม่ได้สั่ง และไม่ตรงกับข้อมูลที่ AI ถูกสอนมา ตัวอย่างที่เห็นกันได้บ่อย ๆ เลยคือ การที่ AI แสดงคำตอบแบบผิด ๆ ออกมาอย่างมั่นใจสุด ๆ ทั้งบทความที่ไม่มีหลักฐานอ้างอิง รูปที่ออกมาไม่ตรงกับ Prompt ที่เราเขียน หรือแม้แต่ในรถยนต์เทสล่า ที่บอกว่ามีคนอยู่ข้างหน้า แต่จริง ๆ แล้วไม่มีอะไรอาการแบบนี้เรียกว่า “อาการหลอนของ AI” หรือ “AI Hallucination” นั่นเอง
AI Hallucination จึงเป็นเรื่องสำคัญสำหรับผู้ที่ใช้ Generative AI ต้องรู้และทำความเข้าใจ เพื่อที่จะหลีกเลี่ยงอาการหลอนของ AI และใช้ Generative AI ได้อย่างมีประสิทธิภาพโดยมีข้อผิดพลาดที่น้อยที่สุด
แล้ว AI Hallucination คืออะไรกันแน่ เกิดจากสาเหตุใดได้บ้าง แล้วเราจะมีวิธีป้องกันไม่ให้เกิด AI Hallucination ได้ยังไง ในบทความนี้เราจะมาหาคำตอบเรื่อง AI Hallucination กัน
AI Hallucination คืออะไร ?
AI Hallucination เป็นคำที่ใช้นิยามปัญหาที่เกี่ยวข้องกับการที่ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้อง, ไม่เป็นความจริง, หรือไม่สมเหตุสมผล หรือเรียกง่าย ๆ ว่า “หลอนไปเอง” โดยมั่นใจว่าผลลัพท์ที่สร้างขึ้นมานั้นถูกต้อง ทำให้ผู้ใช้ AI เกิดความสับสนและได้รับข้อมูลที่ไม่ถูกต้องถ้าไม่ได้ตรวจสอบไปนั่นเอง
แล้วสาเหตุของ AI Hallucination เกิดจากอะไรได้บ้างล่ะ
ชุดข้อมูลที่ใช้สอน AI อาจจะมีชุดข้อมูลที่ไม่เพียงพอ หรือเป็นข้อมูลเท็จ อาจทำให้ AI เกิดการ Bias ทำให้ AI สร้างข้อมูลหรือสร้างความเข้าใจที่ไม่ถูกต้อง
คำสั่งของผู้ใช้งาน ผู้ใช้งาน AI อาจจะใส่คำสั่งหรือ Prompt ที่คลุมเคลือไม่ชัดเจนมากพอที่ AI จะเข้าใจและสร้างผลลลัพท์ได้อย่างถูกต้อง
ข้อจำกัดของ Model AI Model AI ยังคงมีข้อจำกัดในการเข้าใจและการควบคุมความสมบูรณ์ของข้อมูล เนื่องจากความซับซ้อนและความหมายที่หลากหลายในภาษาของมนุษย์ จึงทำให้ผลลัพท์ที่ได้มีความผิดเพี้ยนไม่ถูกต้องได้
การใช้ AI Methods ที่ไม่เหมาะสม การเลือกใช้ AI Methods กับชุดข้อมูลที่ไม่เหมาะสมกัน ทำให้ผลลัพท์ที่ได้ออกมานั้นขาดความแม่นยำหรือผิดเพี้ยนได้
อาการหลอนของ AI เหล่านี้สามารถเกิดขึ้นได้กับทั้ง Generative AI แบบสร้างข้อความ หรือการสร้างรูปภาพได้ทั้งคู่
AI Hallucination เกิดจากอะไร ?
AI Hallucination เกิดขึ้นเมื่อโมเดล AI ที่สร้างขึ้นด้วยเทคโนโลยี NLP (Natural Language Processing) หรือประมวลผลภาษาธรรมชาติทำหน้าที่วิเคราะห์และสร้างข้อความหรือคำตอบที่ไม่สมควรหรือไม่ถูกต้องตามความหมายหรือตามที่ควรจะเป็น ระบบนี้อาจเข้าใจข้อมูลอย่างผิดพลาดหรือสร้างข้อมูลที่ไม่เกี่ยวข้องในบางกรณี เพราะ NLP ไม่ได้มีความเข้าใจด้านภาษาเท่ามนุษย์ ทำให้ไม่เข้าใจความหมายแฝงหรือความหมายจริง ๆ ในภาษา ทำให้สิ่งที่ NLP ทำคือ “เดา” หรือสร้างผลลัพท์ขึ้นมาเอง ว่าคำต่อไปคืออะไรโดยไม่ได้คิดถึงความหมายจริงๆ
AI Hallucination สามารถเกิดขึ้นในลักษณะไหนบ้าง ?
AI Hallucination สามารถเกิดได้หลายแบบ แต่ในบทความนี้จะขอแบ่งออกเป็น 4 แบบ หลัก ๆ เพื่อความเข้าใจง่ายดังนี้
Sentence Contradiction (ประโยคที่ขัดแย้ง) คือเมื่อผลลัพท์สองประโยคหรือคำแต่ละคำกล่าวถึงสิ่งเดียวกัน แต่มีการอธิบายหรือสื่อความที่ขัดแย้งกัน
Prompt Contradiction หมายถึง การเป็นปัญหาที่เกิดขึ้นเมื่อ AI ที่ถูกสอนด้วยprompts อย่างไม่สอดคล้องกัน โมเดล AI อาจให้คำตอบหรือผลลัพธ์ที่ขัดแย้งกับข้อมูลต้นฉบับหรืออาจมีปัญหาในการแยกแยะความหมายจากข้อมูลที่เป็นประโยคที่ขัดแย้งกัน ตัวอย่างเช่น “ให้ข้อมูลเกี่ยวกับหุ้นของบริษัท XYZ”
คำตอบถูกต้อง: “หุ้นของบริษัท XYZ มีค่าเพิ่มขึ้น 5% ในช่วงสองสัปดาห์ที่ผ่านมา”
คำตอบขัดแย้ง (Prompt Contradiction): “หุ้นของบริษัท XYZ มีค่าลดลง 10% ในช่วงสองสัปดาห์ที่ผ่านมา”
Factual Contradiction หมายถึง ความขัดแย้งที่เกิดขึ้นเมื่อข้อมูลหรือคำตอบที่ได้จากโมเดล AI ไม่สอดคล้องกับความจริงหรือข้อมูลที่ถูกต้อง เช่น “อะไรคือสีของท้องฟ้าในวันแจ่มใส?”
คำตอบถูกต้อง: “สีของท้องฟ้าในวันแจ่มใสคือสีฟ้า”
คำตอบที่ขัดแย้ง (Factual Contradiction): “สีของท้องฟ้าในวันแจ่มใสคือสีชมพู”
การที่ factual contradiction เกิดขึ้นในคำตอบของโมเดล AI สามารถเกิดจากข้อมูลที่ไม่ถูกต้องที่ถูกสอนให้โมเดล AI, ข้อมูลที่ถูกต้องที่ถูกเข้าสู่โมเดล AI ด้วยความผิดพลาด, หรือข้อมูลที่มีความขัดแย้งในฐานข้อมูลหรือข้อมูลอ้างอิงที่ใช้ในกระบวนการการเรียนรู้ของ AI
Random Information หมายถึง ข้อมูลที่ไม่มีความสัมพันธ์หรือความเกี่ยวข้องกับเนื้อหาหรือประเด็นหลัก สามารถเป็นข้อมูลที่มาในรูปแบบของข่าวสาร,ข้อมูลทางวิชาการ,ข้อมูลบันเทิง,หรือข้อมูลแนวคิดทั่วไปที่ไม่มีความสัมพันธ์หรือความเกี่ยวข้องกับหัวข้อหรือเนื้อหาที่ถูกนำเสนอ เช่น ข้อมูลเกี่ยวกับสภาพอากาศในที่อื่นๆ ที่ไม่ได้เป็นสภาพอากาศปัจจุบัน, ข้อมูลเกี่ยวกับสุนัขที่ไม่มีความเกี่ยวข้องกับหัวข้อหรือประเด็นหลัก, หรือข้อมูลที่เป็นข้อมูลประเภท “แนะนำ” ที่ไม่ได้มีความสำคัญหรือความเป็นประโยชน์ต่อความเข้าใจหรือประเด็นหลักที่กำลังถูกพูดถึง
แล้วเราจะแก้ไขปัญหา AI Hallucination นี้ได้ยังไง?
เรามาดูกันว่าเราจะมีวิธีแก้ปัญหาและรับมือกับ AI Hallucination ได้ยังไงบ้าง
Limit response range / Input control: การจำกัดขอบเขตของการตอบหรือการรับข้อมูล ลดโอกาสที่จะให้ AI ดึงคำที่ไม่เกี่ยวข้องมาใส่ใน output เขียน prompt ให้มีความ specific ทั้ง style & structure จะทำให้ possible output แคบลง
Implement moderation system: การจัดการและควบคุมข้อมูลที่ได้รับในระบบเพื่อป้องกันเนื้อหาที่ไม่เหมาะสมหรือที่อาจเป็นอันตรายเป็น layer ในการ filter output ที่ไม่สมควรหรือเป็นอันตราย
Learning & Improvement: ให้ AI เรียนรู้และปรับปรุงคุณภาพของการทำงานโดยใช้ข้อมูลเพื่อปรับปรุงประสิทธิภาพและคุณภาพ คอยเก็บ feedback และ monitor feedback จาก user มา refine ทั้ง prompt และ dataset ของเรา
Context / Data Enhancement: ใช้เพิ่มข้อมูลเชิงลึกที่เรามีอยู่เพื่อให้ข้อมูลเหล่านั้นมีความหมายมากขึ้นโดยเพิ่มความเข้าใจและความสัมพันธ์ในระหว่างข้อมูลต่าง ๆ ที่เรามี โดย access ข้อมูลจาก external data source อื่น ๆ ให้ช่วยในการทำนายผลลัพท์ได้แม่นยำยิ่งขึ้น
Contextual prompt engineering: เป็นกระบวนการสร้างคำสั่งที่ชัดเจนเฉพาะเจาะจง เพื่อเพิ่มความเข้าใจและประสิทธิภาพในการใช้งานระบบ AI การให้คำสั่งที่ชัดเจน เฉพาะเจาะจง และไม่ขัดแย้งในตัวเอง เพื่อให้ระบบเข้าใจความเกี่ยวข้องของคำถามในบริบทเฉพาะ ๆ อย่างถูกต้อง
สุดท้ายนี้เราอยากให้เข้าใจว่า AI ถึงแม้ว่าจะดูสะดวกรวดเร็วและแม่นยำในการใช้งานเพียงใด แต่ AI ก็ยังคงเป็นเครื่องมือที่ยังสามารถมีข้อผิดพลาดเกิดขึ้นได้ เพราะ AI ยังคงมีข้อจำกัดในด้านต่าง ๆ ยังไม่สามารถคิดวิเคราะห์ได้เท่ามนุษย์ ผลลัพท์ที่ได้จาก AI จึงอาจจะไม่ได้ถูกต้องทั้งหมด เราผู้ใช้งานจึงควรตรวจสอบผลลัพท์ที่ได้อีกครั้งเพื่อความถูกต้อง หรือควบคุมให้ AI ให้คำตอบออกมาให้ถูกต้องมากที่สุด แต่ทั้งนี้ผลลัพท์ที่ได้ก็ขึ้นอยู่กับผู้ใช้งานจะมองว่าผลลัพท์ที่ได้นั้นถูกต้องแล้ว หรือผลลัพท์ที่ออกมานั้นเป็น การหลอนของ AI นั่นเอง