Uskomaton apuri

Mikko Käkelä

Yhdysvaltalaislääkäri Clifford Stermer teki joulukuun puolessa välissä kokeen. Hän pyysi ChatGPT-tekoälypalvelua lausumaan vakuutusyhtiölle, miksi potilas tarvitsee sydämen kaikukuvauksen.

ChatGPT naputteli vastauksen ruudulle, ja Stermer kuvasi sen videolle.

Arvon United Healthcare, kirjoitan teille hakeakseni lupaa tehdä sydämen kaikukuvaus potilaalleni, jolla on diagnosoitu....

”Vastaava virheiden aste olisi lääketieteessä fataali.”

Muodollisesti moitteetonta tekstiä lääkärin äänellä. Tutkimuksen tarpeen kone perusteli tieteellisesti lähteineen.

– Hämmästyttävää. Käyttäkää tätä vastaanotoillanne. Säästää aikaa ja vaivaa, Stermer neuvoi kollegoitaan ja jakoi videon Tiktokiin (11 https://www.tiktok.com/@tiktokrheumdok/video/7176660771806383403?is_copy_url=1&is_from_webapp=v1).

Lisää kierroksia tuli pari viikkoa sitten, kun esijulkaistu tutkimus kertoi ChatGPT:n pärjäävän lääkärinoikeuksiin vaadittavissa kokeissa Yhdysvalloissa (22 https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v2.full). Pisteistä olisi tullut yli puolet, paikoin 60 prosenttia. Se on usein riittänyt lääkäriksi.

Tutkijat ilmaisivat tulosten viittaavan siihen, että ChatGPT:n kaltainen tekoäly voi olla avuksi lääketieteen opiskelussa ja kliinisessä päätöksenteossa.

Monet muut ovat ilmaisseet innostustaan suoremmin.

Mahdollisuuksia terveydenhuollossa on kuvattu loputtomiksi (33 https://www.medpagetoday.com/special-reports/exclusives/102312). Luonnollisen kielen tekoäly voi kaivaa lääkärille potilaskertomuksesta oleelliset tiedot. Se voi olla potilaan ensikontakti terveydenhuoltoon. Se voi auttaa diagnooseissa ja hoidon suunnittelussa. Se voi tehostaa työnkulkuja. Ja hoitaa paperityöt, kuten Stermer demonstroi.

Onpa ChatGPT nostettu jo tieteellisiin artikkeleihin kirjoittajaksikin. Esimerkiksi siihen, joka kertoi ChatGPT:n yltävän lähelle lääkärinoikeuksia (44 https://www.nature.com/articles/d41586-023-00107-z).

Mikä ChatGPT:ssä on niin uutta ja hienoa?

Se tuottaa luonnolliselta vaikuttavaa tekstiä ja tekee sen kieltä analysoimalla. Pohjalla on massiivinen, internetistä ja muista lähteistä vuoden 2021 aikana kerätty data. Kone käsittelee datan ilman selkeää ohjausta, päättelee oikean vastauksen ja muotoilee sen tekstiksi, myös suomeksi.

Innostuksesta huolimatta ChatGPT:llä on edessään hypekäyrä. Odotukset ovat alussa ylisuuret, kuten IBM:n Watsonilla (55 https://www.nytimes.com/2021/07/16/technology/what-happened-ibm-watson.html).

Perustava ongelma on tiedon validointi. Kone suoltaa vakuuttavia lauseita, jotka tajuaa vääriksi vain, jos tietää oikean vastauksen.

Tekoälyllä ei myöskään ole viranomaisvalvontaa.

Siinä voi olla ohjelmoijistaan – siis ihmisistä – juontuvia kauaskantoisia ja lääketieteessä hengenvaarallisia vääristymiä. Stermerin hakemuksen viitteetkin on jo todettu epäilyttäviksi (66 https://twitter.com/StuartBlitz/status/1602834224284897282), ja tiedejulkaisijat suhtautuvat tekoälyyn kirjoittajana kriittisesti (44 https://www.nature.com/articles/d41586-023-00107-z).

Henkilökohtainen esimerkki kertoo tulosten sattumanvaraisuuden.

Kuka on Pekka Nykänen

Vastaus:

Pekka Nykänen on suomalainen entinen hiihtäjä. Hän voitti useita mitalisijoituksia maailmancupissa ja maailmanmestaruuskisoissa 80-luvulla. Nykänen on myös tunnettu uransa jälkeen esiintyneestä julkisuudessa ja hänellä on ollut ongelmia alkoholin kanssa.

Vastaava virheiden aste olisi lääketieteessä fataali.

Kysytään sama toisessa muodossa:

Kerro kuka on Pekka Nykänen

Nyt tekoäly tietää Nykäsen (siis Matin) olevan kuollut. Ja luettelee mitaleja tarkemmin.

Arpapeliä.

Tekoäly oppii, mutta ihminen osaa ajatella. ChatGPT ei ole nopea ratkaisu lääkäripulaan eikä terveydenhuollon rutiinitöihin. Mutta uskomaton apuri siitä on tulossa.

Juttu on julkaistu aiemmin Lääkärilehden verkkosivulla.