Senin, 18 Agustus 2025

Beda Pandangan Microsoft dan ChatGPT Soal AI: Satu Bilang Menjanjikan, Satu Bilang Heran

Perbedaan pandangan antara bos Microsoft dengan ChatGPT soal AI. Satu bilang AI sangat menjanjikan, satunya heran banyak yang percaya AI.

Freepik.com/rawpixel.com
ILUSTRASI AI - Ilustrasi artificial intelligence (AI) atau kecerdasan buatan yang diunduh dari laman freepik.com, Rabu (4/6/2025). Bos Microsoft dan Bos ChatGPT memiliki perbedaan pandangan mengenai AI. 

TRIBUNNEWS.COM - Artificial Intelligence atau AI saat ini banyak digandrungi di kalangan masyarakat luas, khususnya di Indonesia.

Namun, ada perbedaan pandangan mengenai AI antara Microsoft dengan ChatGPT.

CEO divisi kecerdasan buatan Microsoft, Mustafa Suleyman mengatakan AI terbarunya telah dapat mendiagnosis penyakit empat kali lebih akurat.

Saat ini, Microsoft tengah menguji apakah alat tersebut dapat mendiagnosis pasien yang menderita penyakit dengan tepat, meniru pekerjaan yang biasanya dilakukan oleh dokter manusia.

Tim Microsoft menggunakan 304 studi kasus yang bersumber dari New England Journal of Medicine untuk merancang sebuah uji yang disebut Tolok Ukur Diagnosis Berurutan.

Dikutip dari Wired, sebuah model bahasa menguraikan setiap kasus menjadi proses langkah demi langkah yang akan dilakukan dokter untuk mencapai diagnosis.

Para peneliti Microsoft kemudian membangun sistem yang disebut MAI Diagnostic Orchestrator (MAI-DxO) yang menanyakan beberapa model AI terkemuka — termasuk GPT milik OpenAI, Gemini milik Google, Claude milik Anthropic, Llama milik Meta, dan Grok milik xAI — dengan cara yang secara longgar meniru beberapa pakar manusia yang bekerja bersama-sama.

Dalam percobaan mereka, MAI-DxO mengungguli dokter manusia, dengan tingkat akurasi 80 persen dibandingkan dokter yang hanya 20 persen.

Biaya juga berkurang 20 persen dengan memilih tes dan prosedur yang lebih murah.

"Mekanisme orkestrasi ini—beberapa agen yang bekerja bersama dalam gaya perdebatan berantai—itulah yang akan membawa kita lebih dekat ke kecerdasan super medis,” kata Suleyman.

Perusahaan tersebut merekrut beberapa peneliti AI Google untuk membantu upaya tersebut — pertanda lain dari meningkatnya persaingan untuk mendapatkan keahlian AI terbaik di industri teknologi.

Baca juga: Penelitian Microsoft: AI Lebih Baik daripada Dokter untuk Mendiagnosis Masalah Kesehatan yang Rumit

Suleyman sebelumnya adalah seorang eksekutif di Google yang menangani AI.

AI sudah banyak digunakan di beberapa bagian industri perawatan kesehatan AS, termasuk membantu ahli radiologi menginterpretasi hasil pemindaian.

Model AI multimoda terbaru berpotensi untuk bertindak sebagai alat diagnostik yang lebih umum, meskipun penggunaan AI dalam perawatan kesehatan menimbulkan masalah tersendiri, khususnya terkait bias dari data pelatihan yang condong ke demografi tertentu.

Di sisi lain, CEO OpenAI dan wajah di balik ChatGPT, Sam Altman mengakui bahwa ia terkejut dengan tingkat kepercayaan yang diberikan orang pada alat AI generatif—meskipun kekurangannya sangat mirip manusia.

Pengungkapan itu muncul dalam episode terbaru podcast OpenAI

"Orang-orang memiliki tingkat kepercayaan yang sangat tinggi pada ChatGPT, yang menarik karena AI berhalusinasi. Seharusnya itu adalah teknologi yang tidak terlalu Anda percayai," kata Altman, dikutip dari The Economic Times.

Komentar Altman muncul pada saat AI tertanam dalam hampir setiap aspek kehidupan sehari-hari.

Namun peringatannya berakar pada kelemahan utama model bahasa saat ini: halusinasi.

Dalam istilah AI, halusinasi merujuk pada momen ketika model seperti ChatGPT memalsukan informasi.

Ini bukan sekadar kesalahan yang tidak berbahaya; terkadang, halusinasi tampak sangat akurat, terutama ketika model mencoba memenuhi permintaan pengguna, bahkan dengan mengorbankan integritas fakta.

"Anda dapat memintanya untuk mendefinisikan istilah yang tidak ada, dan model akan dengan yakin memberikan penjelasan yang dibuat dengan baik tetapi salah," Altman memperingatkan.

Ini bukan masalah yang terisolasi — OpenAI sebelumnya telah meluncurkan pembaruan untuk mengurangi apa yang disebut sebagian orang sebagai "kecenderungan menjilat" alat tersebut, yang cenderung setuju dengan pengguna atau menghasilkan informasi yang menyenangkan tetapi salah.

Yang membuat halusinasi sangat berbahaya adalah sifatnya yang samar.

Halusinasi jarang menimbulkan tanda bahaya, dan kecuali pengguna benar-benar memahami topiknya, akan sulit membedakan antara kebenaran dan fiksi yang dibuat oleh AI.

Baca juga: Senat AS Cabut Larangan Regulasi AI dari RUU yang Diajukan Trump

Ketidakjelasan itulah yang menjadi inti peringatan Altman.

Laporan terkini bahkan mendokumentasikan kasus yang meresahkan, di mana ChatGPT diduga meyakinkan pengguna bahwa mereka terjebak dalam simulasi mirip Matrix, yang mendorong perilaku ekstrem untuk "melarikan diri".

Meskipun jarang terjadi dan sering kali bersifat anekdot, kejadian seperti itu menunjukkan pengaruh psikologis yang dapat ditimbulkan oleh alat ini ketika digunakan tanpa pengawasan kritis.

(Tribunnews.com/Whiesa)

Sumber: TribunSolo.com
Berita Terkait

Berita Terkini

© 2025 TribunNews.com, a subsidiary of KG Media. All Right Reserved
About Us Help Privacy Policy Terms of Use Contact Us Pedoman Media Siber Redaksi Info iklan