Tags:
Node Thumbnail

ผลการศึกษา Oxford พบว่า AI มีแนวโน้มที่จะวินิจฉัยโรคผิดพลาด และมักประเมินความรุนแรงของอาการต่ำกว่าความเป็นจริง แทนที่จะให้คำปรึกษาได้ดีแบบวิธีเดิม ๆ เช่น ค้นหาผ่านอินเทอร์เน็ต หรือใช้วิจารณญาณส่วนตัว

แม้ผลสำรวจโดย Fierce Healthcare พบว่า 1 ใน 6 ของคนอเมริกาหันมาใช้แชทบอท AI วินิจฉัยโรค และขอคำปรึกษาด้านสุขภาพอย่างน้อยเดือนละครั้ง เพื่อแก้ปัญหาค่ารักษาพยาบาลที่เพิ่มสูงขึ้น และต้องรอคิวนาน

นักวิจัย Oxford บอกว่าปัญหานี้ดูเหมือนจะเกิดจากช่องว่างในการสื่อสาร นั่นก็คือผู้ใช้มักไม่รู้ว่าควรให้ข้อมูลอะไรกับแชทบอท และคำตอบที่ได้ก็มักจะผสมระหว่างคำแนะนำที่ถูกต้องและผิดพลาด ทำให้ตีความได้ยาก

ซึ่งวิธีประเมินคุณภาพของระบบแชทบอทในปัจจุบัน อย่างเช่น ChatGPT, GPT 4-o, Command R+, และ Llama 3 ที่ใช้การทดสอบ ยังไม่สามารถสะท้อนความซับซ้อนของการโต้ตอบระหว่างมนุษย์ได้อย่างแท้จริง

ขณะเดียวกัน บริษัทยักษ์ใหญ่อย่าง Apple, Amazon, และ Microsoft ก็ยังลงทุนพัฒนาเครื่องมือ AI ด้านสุขภาพอย่างต่อเนื่อง แต่ผู้เชี่ยวชาญในวงการแพทย์ยังมีความไม่มั่นใจอยู่ เพราะควรทดสอบในสถานการณ์จริง ก่อนนำมาใช้ตัดสินปัญหาสุขภาพต่าง ๆ

ที่มา:TechCrunch via Oxford และ Fierce Healthcare

AI

Get latest news from Blognone

Comments

By: Tasksenger on 7 May 2025 - 06:46 #1339554

ตราบใดที่ประสาทสัมผัสของ AI ยังไม่สมบูรณ์ การปรึกษาทางการแพทย์น่าจะยังต้องรอกันต่อไป การตรวจรักษาโรค และให้คำปรึกษาของแพทย์ มันต้องอาศัยประสาทสัมผัสหลายอย่าง จะให้คนไข้นั่งกรอกข้อมูลแล้วให้ AI ตอบคำถามอย่างเดียวคงไม่ได้ เพราะคนไข้เองก็กรอกได้แค่สิ่งที่เขาเห็น แต่อาจมีสิ่งที่เขามองข้ามไปเช่นกัน ปรกติการตรวจของแพทย์ แค่เสียงลมหายใจแพทย์ผู้เชี่ยวชาญบางท่านก็พอพยากรณ์โรคได้ในเบื้องต้น โดยนำมาประกอบกับการให้ข้อมูลจากคนไข้ถึงจะสามารถระบุโรคเบื้องต้น เพื่อนำไปสู่การส่งไปยังห้องตรวจเพิ่มเติมด้วยอุปกรณ์อื่น ยิ่งเรื่องการจ่ายยานี่ข้ามไปได้เลย เพราะมันต้องผ่านหลายกระบวนการกว่าจะได้ผลสรุปสุดท้ายซึ่งนำมาในใบสั่งยา ผมว่าอย่างน้อยก็มี 10 ปีขึ้นไปนั่นแหล่ะสำหรับ prototype หุ่นยนต์ทางการแพทย์ที่สามารถใช้ตรวจเบื้องต้นได้

By: shub on 7 May 2025 - 11:18 #1339573

เจอค่ารักษาของพี่กันเข้าไปถ้าไม่รวยก็คงต้องยอมใช้แหละ ต่างกับบ้านเราที่หมอเข้าถึงง่ายเพราะทั้งประกันสุขภาพต่างๆบัตรทอง แต่ก็กลายเป็นว่าหมอในไทยก็คืองานล้นเพราะคนเป็นอะไรนิดๆหน่อยๆก็ไปหาหมอกันรัวๆ ขนาดไม่ป่วยก็ยังไปหาเอาใบรับรองไปโดดงานกัน

By: 7
Android
on 7 May 2025 - 17:42 #1339598
7's picture

เอาตรงๆ หมอที่เป็นมนุษย์ก็วินิจฉัยผิด ไม่ได้แม่นขนาดเชื่อถือได้ 100% ขนาดนั้น แต่หมอต่อให้วินิจฉัยผิด ก็ว่าไม่ได้ แต่ AI ต่อให้วินิจฉัยถูก 99.99% วินิจฉัยผิดคนเดียว ก็อาจจะชักปลั๊กได้เลย