วิจัย 'สแตนฟอร์ด'
เตือน แชตบอต AI มีพฤติกรรมประจบเอาใจเข้าข้างผู้ใช้งานมากกว่ามนุษย์เกือบ
50% แม้เป็นการกระทำที่สุ่มเสี่ยงหรือผิดกฎหมาย อาจนำไปสู่การสูญเสียทักษะสังคม
แม้ว่าจะมีการถกเถียงกันมากมายเกี่ยวกับแนวโน้มของแชตบอท
AI
ที่จะประจบเอาใจและยืนยันความเชื่อที่มีอยู่แล้วของผู้ใช้หรือที่เรียกอีกอย่างว่า
AI Sycophancy นั้น
แต่ผลการศึกษาใหม่ของทีมนักวิทยาการคอมพิวเตอร์จากมหาวิทยาลัยสแตนฟอร์ดขจองสหรัฐฯ
พยายามวัดว่าแนวโน้มดังกล่าวอาจเป็นอันตรายมากน้อยเพียงใด
ไม่ใช่แค่สไตล์ แต่เป็นภัยเงียบ
งานวิจัย “Sycophantic
AI decreases prosocial intentions and promotes dependence” ที่ตีพิมพ์ในวารสาร
Science เมื่อไม่นานมานี้ ระบุว่า
พฤติกรรมประจบเอาใจผู้ใช้ของแชตบอต AI ไม่ใช่แค่ปัญหาด้านรูปแบบการตอบ
แต่เป็นพฤติกรรมแพร่หลายที่พบได้ทั่วไปและอาจส่งผลกระทบต่อพฤติกรรมของผู้ใช้อย่างกว้างขวาง
รายงานล่าสุดจาก Pew
Research Center พบว่า วัยรุ่นในสหรัฐฯ ประมาณ 12% ใช้แชตบอต AI
เพื่อขอคำปรึกษาด้านอารมณ์หรือคำแนะนำชีวิต
ขณะที่ 'ไมรา
เฉิง' (Myra Cheng) ผู้เขียนหลักและนักศึกษาปริญญาเอกด้านวิทยาการคอมพิวเตอร์ของมหาวิทยาลัยสแตนฟอร์ด
กล่าวว่า
เริ่มสนใจประเด็นนี้หลังทราบว่านักศึกษาระดับปริญญาตรีบางคนขอคำแนะนำเรื่องความสัมพันธ์จากแชตบอต
AI หรือแม้กระทั่งให้แชตบอตช่วยเขียนข้อความบอกเลิกความสัมพันธ์กับคนรัก
'เฉิง' ระบุว่า โดยพื้นฐานแล้ว AI จะไม่ให้คำแนะนำว่าผู้ใช้ผิดหรือใช้การสอนแบบตักเตือนด้วยความหวังดี
ซึ่งสร้างความกังวลให้ทีมวิจัยว่าผู้คนอาจสูญเสียทักษะในการรับมือกับสถานการณ์ทางสังคมที่ยากลำบากได้
AI
เข้าข้างผู้ใช้มากกว่ามนุษย์เกือบ 50%
การศึกษานี้แบ่งออกเป็น 2 ส่วน
ในส่วนแรกนักวิจัยทดสอบโมเดลภาษาใหญ่ขนาดใหญ่ 11 โมเดล รวมถึง ChatGPT,
Claude, Google Gemini และ DeepSeek โดยป้อนคำค้นหาจากฐานข้อมูลที่มีอยู่เกี่ยวกับการให้คำแนะนำระหว่างบุคคล
การกระทำที่อาจเป็นอันตรายหรือผิดกฎหมาย และจากกระทู้ยอดฮิตอย่าง r/AmITheAsshole
ใน Reddit ซึ่งเป็นกระทู้ที่สรุปว่าผู้โพสต์เป็นตัวร้ายของเรื่อง
นักวิจัยพบว่า ทั้ง 11 โมเดล
คำตอบที่สร้างโดย AI มีแนวโน้มเห็นด้วยกับผู้ใช้
มากกว่ามนุษย์เฉลี่ยถึง 49% ในกรณีตัวอย่างที่ยกมาจาก Reddit พบว่า แชตบอตยืนยันพฤติกรรมของผู้ใช้ว่าถูกต้องถึง 51% แม้ผู้ใช้ Reddit
ส่วนใหญ่จะสรุปว่าผู้ตั้งคำถามเป็นฝ่ายผิดก็ตาม
และสำหรับคำถามเกี่ยวกับพฤติกรรมที่อาจเป็นอันตรายหรือผิดกฎหมาย AI ก็ยังสนับสนุนผู้ใช้ถึง 47% ด้วยกัน
ตัวอย่างหนึ่งของรายงาน ระบุว่า
ผู้ใช้ถามแชตบอตว่าตนเองทำผิดหรือไม่ที่โกหกแฟนว่าตกงานมา 2 ปี เพื่อลองใจ
และได้รับคำตอบจาก AI ในเชิงเข้าอกเข้าใจว่า
ถึงแม้การกระทำนั้นจะดูแปลก
แต่ก็ดูเหมือนจะมาจากความต้องการที่จะทดสอบความจริงใจในความสัมพันธ์
วงจรที่น่ากลัว: ยิ่งประจบ คนยิ่งชอบ
ในส่วนที่ 2
นักวิจัยศึกษาปฏิสัมพันธ์กับอาสาสมัครผู้เข้าร่วมการทดลองกว่า 2,400
คนในการโต้ตอบกับแชตบอต AI ที่ประจบเอาใจผู้ใช้และบางตัวไม่มีพฤติกรรมดังกล่าว
โดยพบว่า ในการสนทนาเกี่ยวกับปัญหาหรือสถานการณ์ของตนเองที่ดึงมาจาก Reddit
นั้น ผู้เข้าร่วมการวิจัยมักชื่นชอบและเชื่อถือ AI ที่เห็นด้วยกับตนเองมากกว่า และมีแนวโน้มจะกลับมาขอคำแนะนำจาก AI แบบนั้นอีก
ผลการศึกษา ระบุว่า
การที่ผู้ใช้ชื่นชอบการตอบสนองของ AI ที่ประจบประแจงนั้นสร้างแรงจูงใจที่ผิดเพี้ยน
ให้บริษัท AI หันมาพัฒนาโมเดลให้เอาใจผู้ใช้มากขึ้นเพื่อเพิ่มยอดการใช้งาน
ขณะเดียวกัน การโต้ตอบกับ AI
ที่เอาใจผู้ใช้ยังทำให้ผู้เข้าร่วมมั่นใจมากขึ้นว่าตนเองถูกต้องและมีแนวโน้มที่จะขอโทษผู้อื่นน้อยลง
คำแนะนำและการป้องกัน
“แดน จูราฟสกี” (Dan
Jurafsky) ศาสตราจารย์ด้านภาษาศาสตร์และวิทยาการคอมพิวเตอร์จากมหาวิทยาลัยสแตนฟอร์ด
ซึ่งเป็นผู้เขียนอาวุโสของงานวิจัยชิ้นนี้ ระบุว่า แม้ผู้ใช้จะตระหนักดีว่าแชตบอต AI
มีแนวโน้มที่จะให้คำตอบแบบเอาใจและชมเชยแต่สิ่งที่หลายคนไม่รู้และทำให้นักวิจัยประหลาดใจคือพฤติกรรมดังกล่าวอาจทำให้ผู้ใช้มีความเห็นแก่ตัวมากขึ้นและยึดมั่นในมุมมองทางศีลธรรมของตนเองมากขึ้น
'จูราฟสกี' เสริมว่า การประจบเอาใจของ AI นั้นเป็นปัญหาด้านความปลอดภัยและเช่นเดียวกับปัญหาด้านความปลอดภัยอื่น ๆ
สิ่งนี้จำเป็นต้องมีกฎระเบียบและการควบคุมกำกับดูแล
ขณะนี้ ทีมวิจัยกำลังหาวิธีทำให้โมเดล AI
มีพฤติกรรมเอาใจผู้ใช้น้อยลง โดยพบว่า
การเริ่มต้นคำสั่งด้วยวลีอย่าง “เดี๋ยวก่อนนะ” (Wait A Minute) อาจช่วยลดแนวโน้มดังกล่าวได้
อย่างไรก็ตาม 'เฉิง' แนะนำว่า ไม่ควรใช้ AI แทนการปรึกษากับมนุษย์ในเรื่องส่วนตัวหรือเรื่องความสัมพันธ์
ซึ่งเป็นสิ่งที่ดีที่สุดที่ควรทำในตอนนี้
ที่มา : Springnews
วันที่ 8 เมษายน 2569