การ์ทเนอร์ คาดภายในปี 2571 องค์กรกว่า
50% จะใช้มาตรการ “Zero-Trust Data Governance” หรือการนำมาตรการ "Zero-Trust" มาใช้เพื่อกำกับดูแลข้อมูล
(Data Governance)
ทั้งนี้
เพื่อรับมือกับการแพร่กระจายของข้อมูลที่สร้างโดย AI
(AI-Generated Data) ที่ยังไม่ได้รับการตรวจสอบปัจจุบัน
การเพิ่มขึ้นของข้อมูลที่สร้างโดย AI กำลังเป็นภัยคุกคามต่อความน่าเชื่อถือของการพัฒนาโมเดลภาษาขนาดใหญ่
(LLM)
หวัน ฟุ่ย ชาน รองประธานบริหาร
การ์ทเนอร์ กล่าวว่า
องค์กรไม่สามารถเชื่อถือข้อมูลหรือคิดเอาเองว่าข้อมูลนั้นถูกสร้างโดยน้ำมือมนุษย์ได้อีกต่อไป
เมื่อข้อมูลที่สร้างโดย AI
เผยแพร่กระจายออกไปจนทำให้เราแยกแยะไม่ออกจากข้อมูลที่มนุษย์สร้างขึ้น
ดังนั้นการนำมาตรการ Zero-Trust มาใช้
เพื่อสร้างระบบยืนยันตัวตนและตรวจสอบข้อมูล
จึงเป็นเรื่องจำเป็นอย่างยิ่งสำหรับปกป้องผลลัพธ์ทางธุรกิจและการเงิน
·
‘โมเดล’ เสี่ยงล่มสลาย
ข้อมูล AI เพิ่มความเสี่ยงต่อภาวะการล่มสลายของโมเดล (Model Collapse) และการปฏิบัติตามกฎระเบียบ โดยปกติแล้ว โมเดลภาษาขนาดใหญ่ (LLMs) จะได้รับการฝึกฝนด้วยข้อมูลที่รวบรวมมาจากเว็บ (Web-Scraped Data) รวมถึงหนังสือ แหล่งรวมโค้ด และงานวิจัย
แหล่งข้อมูลเหล่านี้บางส่วนมีเนื้อหาที่ AI
สร้างขึ้นปะปนอยู่แล้ว และหากแนวโน้มนี้ยังดำเนินต่อไป
ในที่สุดแหล่งข้อมูลเกือบทั้งหมดก็จะเต็มไปด้วยข้อมูลที่ AI สร้างขึ้นมา
ผลสำรวจ 2026 Gartner
CIO and Technology Executive Survey พบว่า 84%
ของผู้ตอบแบบสอบถามคาดว่าในปี 2569 องค์กรของตนจะเพิ่มงบประมาณด้าน GenAI ซึ่งหมายความว่าโมเดล LLM รุ่นต่อ ๆ
ไปจะได้รับการฝึกด้วย "ผลลัพธ์จากโมเดลรุ่นก่อนหน้า" มากขึ้นเรื่อย ๆ
ทำให้เกิดความเสี่ยงต่อภาวะการล่มสลายของโมเดล (Model Collapse) หรือการที่ AI ให้คำตอบบิดเบือนไปจากความเป็นจริง
·
เข้มมาตรการจัดการ
‘เมตาดาต้า’
เมื่อข้อมูลที่สร้างจาก AI
แพร่หลายมากขึ้นทำให้บางประเทศในบางภูมิภาคเข้มงวดกับกฎระเบียบมากขึ้นเพื่อบังคับให้ต้องมีการตรวจสอบข้อมูลว่า
"ปลอด AI" (AI-Free)
อย่างไรก็ตาม
บางประเทศอาจพยายามบังคับใช้การควบคุมที่เข้มงวดกว่าสำหรับเนื้อหา AI
ขณะที่บางแห่งอาจใช้วิธีการที่ยืดหยุ่นกว่า
ดังนั้นในสภาพแวดล้อมด้านกฎระเบียบที่เปลี่ยนไปนี้
องค์กรต้องมีเครื่องมือสำหรับระบุและติดตามข้อมูลที่สร้างจาก AI
โดยจะสำเร็จหรือไม่นั้นขึ้นอยู่กับการมีเครื่องมือที่เหมาะสมและมีบุคลากรที่มีทักษะในการจัดการข้อมูลและองค์ความรู้
รวมถึงมีโซลูชันการจัดการเมตาดาต้า (Metadata)
หรือข้อมูลที่ใช้อธิบายชุดข้อมูล
ซึ่งจำเป็นอย่างยิ่งต่อการคัดแยกประเภทข้อมูล
แนวทางปฏิบัติด้านการจัดการเมตาดาต้าเชิงรุก
(Active
Metadata Management) จะกลายเป็นปัจจัยสำคัญที่สร้างความต่าง
ช่วยให้องค์กรสามารถวิเคราะห์ แจ้งเตือน
และตัดสินใจเกี่ยวกับสินทรัพย์ข้อมูลได้แบบอัตโนมัติ
·
ปรับกลยุทธ์
ลดความเสี่ยง
สำหรับ
วิธีจัดการความเสี่ยงเพื่อรับมือกับข้อมูล AI ที่ไม่ได้รับการตรวจสอบและทวีปริมาณมากขึ้น
การ์ทเนอร์แนะนำองค์กรธุรกิจควรปรับใช้กลยุทธ์ ดังนี้
แต่งตั้งผู้นำด้านการกำกับดูแล AI
หรือ AI Governance Leader: กำหนดบทบาทหน้าที่อย่างชัดเจนเพื่อดูแลนโยบาย
Zero-Trust, การจัดการความเสี่ยงจาก AI และการปฏิบัติตามกฎระเบียบ
โดยทำงานร่วมกับทีมข้อมูลและการวิเคราะห์
(D&A)
เพื่อให้มั่นใจได้ว่าทั้งข้อมูลและระบบมีความพร้อมสำหรับ AI และสามารถจัดการกับเนื้อหาที่สร้างโดย AI ได้
ส่งเสริมความร่วมมือข้ามสายงาน:
สร้างทีมที่ทำงานสอดประสาน ประกอบด้วยฝ่ายความมั่นคงปลอดภัยไซเบอร์ (Cybersecurity)
และฝ่ายข้อมูลและการวิเคราะห์ (D&A) รวมถึงผู้เกี่ยวข้องในฝ่ายอื่น
ๆ
เพื่อประเมินความเสี่ยงว่าข้อมูลที่ AI
สร้างขึ้นกระทบต่อธุรกิจอย่างไรบ้าง
และนโยบายเดิมที่ใช้อยู่เพียงพอหรือจำเป็นต้องมองหากลยุทธ์ใหม่ขึ้นมาทดแทน
นำนโยบายธรรมาภิบาลเดิมที่มีอยู่มาปรับใช้:
ต่อยอดจากกรอบการทำงานเดิม โดยปรับปรุงเรื่องความปลอดภัย
การจัดการข้อมูลที่ใช้อธิบายข้อมูล (Metadata) และนโยบายด้านจริยธรรมให้ครอบคลุมความเสี่ยงใหม่ ๆ
ที่เกิดจากข้อมูลที่สร้างโดย AI
นำการจัดการ Metadata
เชิงรุก หรือ Active Metadata Practices มาใช้:
เพื่อให้มีระบบแจ้งเตือนแบบ Real-time เมื่อข้อมูลล้าสมัยหรือต้องมีการตรวจสอบซ้ำ
ช่วยให้องค์กรไหวตัวทันเมื่อระบบสำคัญกำลังเผชิญหน้ากับข้อมูลที่ไม่ถูกต้องหรือมีอคติ
ที่มา : กรุงเทพธุรกิจ
วันที่ 9 กุมภาพันธ์ 2569