OpenAI menyoroti keluarga yang menggunakan ChatGPT untuk keputusan pengobatan kanker, tetapi studi terbaru menunjukkan alat kesehatan AI memiliki masalah akurasi dan keamanan yang signifikan. (ReadOpenAI menyoroti keluarga yang menggunakan ChatGPT untuk keputusan pengobatan kanker, tetapi studi terbaru menunjukkan alat kesehatan AI memiliki masalah akurasi dan keamanan yang signifikan. (Read

OpenAI Mempromosikan ChatGPT untuk Keputusan Kesehatan di Tengah Kekhawatiran Akurasi

2026/03/05 09:21
durasi baca 3 menit
Untuk memberikan masukan atau menyampaikan kekhawatiran terkait konten ini, silakan hubungi kami di crypto.news@mexc.com

OpenAI Mempromosikan ChatGPT untuk Keputusan Kesehatan di Tengah Kekhawatiran Akurasi

Terrill Dicki 05 Mar 2026 01:21

OpenAI menyoroti keluarga yang menggunakan ChatGPT untuk keputusan pengobatan kanker, namun studi terbaru menunjukkan alat kesehatan AI memiliki masalah akurasi dan keamanan yang signifikan.

OpenAI Mempromosikan ChatGPT untuk Keputusan Kesehatan di Tengah Kekhawatiran Akurasi

OpenAI menerbitkan studi kasus minggu ini yang menampilkan sebuah keluarga yang menggunakan ChatGPT untuk mempersiapkan keputusan pengobatan kanker putra mereka, memposisikan chatbot AI sebagai pelengkap panduan dokter. Waktunya mengundang pertanyaan mengingat bukti yang meningkat bahwa alat kesehatan AI memiliki masalah keandalan yang signifikan.

Materi promosi yang dirilis 4 Maret menjelaskan bagaimana orang tua memanfaatkan ChatGPT bersama tim onkologi anak mereka. OpenAI membingkai ini sebagai penggunaan AI yang bertanggung jawab—melengkapi daripada menggantikan keahlian medis.

Namun narasi yang optimis ini bertabrakan dengan temuan penelitian yang tidak nyaman. Sebuah studi yang diterbitkan di Nature Medicine yang memeriksa produk "ChatGPT Health" milik OpenAI sendiri menemukan masalah substansial dengan akurasi, protokol keamanan, dan bias rasial dalam rekomendasi medis. Itu bukan peringatan kecil untuk alat yang mungkin digunakan orang saat membuat keputusan hidup-mati tentang pengobatan kanker.

Masalah Akurasi

Penelitian independen menggambarkan gambaran yang beragam paling baik. Sebuah studi Mass General Brigham menemukan ChatGPT mencapai sekitar 72% akurasi di berbagai spesialisasi medis, naik menjadi 77% untuk diagnosis akhir. Terdengar lumayan sampai Anda mempertimbangkan apa yang dipertaruhkan—apakah Anda akan naik pesawat dengan kemungkinan 23% pilot membuat kesalahan kritis?

Perusahaan AI kesehatan Atropos memberikan angka yang lebih suram: model bahasa besar tujuan umum memberikan informasi yang relevan secara klinis hanya 2% hingga 10% dari waktu untuk dokter. Kesenjangan antara "kadang membantu" dan "cukup andal untuk keputusan kanker" tetap sangat besar.

American Medical Association tidak memilih kata-kata. Organisasi tersebut merekomendasikan agar dokter tidak menggunakan alat berbasis LLM untuk bantuan keputusan klinis, mengutip kekhawatiran akurasi dan tidak adanya pedoman standar. Ketika AMA memberi tahu dokter untuk menghindari, pasien mungkin harus memperhatikan.

Apa yang Tidak Bisa Dilakukan ChatGPT

Chatbot AI tidak dapat melakukan pemeriksaan fisik. Mereka tidak dapat membaca bahasa tubuh pasien atau mengajukan pertanyaan lanjutan intuitif yang dikembangkan oleh ahli onkologi berpengalaman selama beberapa dekade. Mereka dapat berhalusinasi—menghasilkan informasi yang terdengar yakin yang sepenuhnya dibuat-buat.

Kekhawatiran privasi menambahkan lapisan lain. Setiap gejala, setiap ketakutan, setiap detail tentang kanker anak yang diketik ke ChatGPT menjadi data yang pengguna memiliki kontrol terbatas.

Studi kasus OpenAI menekankan keluarga bekerja "bersama bimbingan ahli dari dokter." Kualifikasi itu penting. Bahayanya bukan pasien yang terinformasi mengajukan pertanyaan yang lebih baik—tetapi orang-orang rentan dalam krisis yang berpotensi terlalu bergantung pada alat yang salah lebih sering daripada yang disarankan pemasaran.

Bagi investor kripto yang mengamati ambisi perusahaan OpenAI, dorongan kesehatan menandakan ekspansi agresif ke dalam vertikal berisiko tinggi. Apakah regulator akan mentolerir perusahaan AI yang mempromosikan alat pengambilan keputusan medis dengan masalah akurasi yang terdokumentasi tetap menjadi pertanyaan terbuka menjelang 2026.

Sumber gambar: Shutterstock
  • openai
  • chatgpt
  • ai healthcare
  • medical ai
  • health tech
Penafian: Artikel yang diterbitkan ulang di situs web ini bersumber dari platform publik dan disediakan hanya sebagai informasi. Artikel tersebut belum tentu mencerminkan pandangan MEXC. Seluruh hak cipta tetap dimiliki oleh penulis aslinya. Jika Anda meyakini bahwa ada konten yang melanggar hak pihak ketiga, silakan hubungi crypto.news@mexc.com agar konten tersebut dihapus. MEXC tidak menjamin keakuratan, kelengkapan, atau keaktualan konten dan tidak bertanggung jawab atas tindakan apa pun yang dilakukan berdasarkan informasi yang diberikan. Konten tersebut bukan merupakan saran keuangan, hukum, atau profesional lainnya, juga tidak boleh dianggap sebagai rekomendasi atau dukungan oleh MEXC.