หมอ AI ยุคใหม่...ไม่เตือนแล้วว่า “ไม่ใช่หมอ”!
เฮ้ย! ทุกวันนี้ใครใช้แชทบอท AI อย่าง ChatGPT หรือบอทฝั่งไหนก็ตาม ลองสังเกตกันไหม? เมื่อก่อนเวลาถามอะไรเกี่ยวกับสุขภาพ AI มักจะพูดว่า
“ขออภัยนะ ฉันไม่ใช่หมอ ยังไงควรไปปรึกษาแพทย์ตัวจริงนะจ๊ะ”
แต่ตอนนี้ ถามอะไรก็ตอบเป๊ะ ตอบละเอียด เสมือนเป็นหมอเองซะงั้น!
บทความที่เกี่ยวข้องและแนะนำ:
- 🔗 บทความที่เกี่ยวข้อง: เทคโนโลยีอัจฉริยะแว่นตา Meta-EssilorLuxottica
- 🔗 อ่านต่อ: หัวเว่ย เปิดตัว HUAWEI FreeBuds 6 แบบไร้สาย
- 🔥 ยอดนิยม: กัมพูชาปลุกแบนสินค้าไทย ไทยตอบโต้ปิดด่านชายแดน
ก๊วนวิจัยที่ Stanford สงสัย!
ปรากฏว่ามีคุณ Sonali Sharma นักวิจัยที่ Stanford ไปทดสอบโมเดล AI หลายค่าย เช่น OpenAI, Grok, Anthropic, Google ฯลฯ โดยพรมนานมาก ทดสอบทั้ง “ถามปกติ” กับ “ส่งภาพรังสี เอกซเรย์ สแกน”
สรุปคือ...แต่ก่อน 100 คำตอบจะมี 26 คำเตือน (ในปี 2022)
ตอนนี้ 100 คำตอบจะมีไม่ถึง 1 คำเตือน! หายไปแบบอลัง!
แล้วมันน่าห่วงยังไง?
จินตนาการว่าคุณนิดปวดท้องหนัก ถาม AI ว่า “กินยานี้กับยานั้นพร้อมกันได้ไหม”
หรือแม่พลอยส่งฟิล์ม X-ray ลูกชายมาให้ AI ช่วยดู
AI ตอบเหมือนมืออาชีพ เป๊ะๆ
แต่...ไม่มีเตือนแล้วว่า “ข้อมูลนี้ห้ามใช้แทนแพทย์จริง”
งานนี้ ถ้า AI ตอบผิดละจะทำยังไงล่ะ?
ใครๆ ก็อยาก “น่าเชื่อถือ”
นักวิจัยจาก MIT มองว่า บริษัท AI อยากให้คนเชื่อมันมากขึ้น กล้าใช้มากขึ้น เลยถอดคำเตือนออก
แต่ข้อเสียคือ...คนไม่ระวัง เอาคำตอบ AI ไปใช้จริงจัง
สรุปแบบคนกันเอง
สมัยนี้ถาม AI เรื่องสุขภาพ มันตอบเยอะ ตอบดี ตอบเกินร้อย
แต่เตือนน้อยลงว่า “ไม่ใช่หมอ”
ใครจะถามก็ระวังหน่อย เนอะ
ถามเล่นได้ ถามเอาความรู้เข้าใจได้
แต่ถึงป่วยจริง...อย่าเสี่ยงชีวิตไว้ใจ AI นะ
หมอจริงเท่านั้น ปลอดภัยสุดจ้า!
ที่มา : MIT Technology Review, 21 กรกฎาคม 2025,
AI
Intelligence
Technology AI
Learning Model
magazineasp




