Risultati sorprendenti per l’intelligenza artificiale di OpenAI: ha conseguito un punteggio di gran lunga migliore rispetto agli studenti di medicina.
Un nuovo incredibile traguardo raggiunto dall’intelligenza artificiale. Oggetto di dibattito degli ultimi tempi, l’intelligenza artificiale si è da subito mostrata come uno strumento fondamentale in praticamente tutti gli ambiti, professionali e non. Le sue potenzialità pressoché infinite, e la sua capacità di adattamento a qualsiasi richiesta gli utenti gli presentino, hanno fatto sì che sempre più persone iniziassero a utilizzarla, con risultati davvero soddisfacenti.
Anche i più scettici, infatti, hanno iniziato a ricredersi sulle effettive potenzialità di questo strumento, che ormai trova applicazioni quasi ovunque. Un esempio per comprenderne meglio le qualità ce lo presentano alcuni ricercatori di Stanford, università privata della California, che hanno utilizzato ChatGPT – intelligenza artificiale di OpenAI – per rispondere alle impegnative domande dell’esame di assistenza clinica della facoltà di medicina.
ChatGPT, in effetti, era già stato utilizzato in passato, in cui fu applicato per affrontare l’esame di scienza medica degli Stati Uniti (USMLE). L’esame era strutturato con domande a risposta multipla, quindi perfette per un’intelligenza artificiale. I ricercatori hanno quindi deciso di sottoporla ad un esame che prevedesse risposte aperte e complesse, in cui si richiedevano abilità per quanto riguarda il ragionamento clinico. Vediamo com’è andata.
ChatGPT e assistenza clinica: risultati sorprendenti
L’esame richiedeva, come detto, risposte aperte, frutto di un complesso ragionamento in base alle informazioni a disposizione. Le domande erano strutturate con descrizioni testuali di centinaia di parole e con la presenza di dettagli estranei, come ad esempio farmaci non correlati e condizioni mediche particolari. Il tutto quindi, mirava a simulare una situazione comune nella vita reale, ovvero l’analisi della cartella di un paziente.
L’IA, quindi, ha dovuto analizzare il testo a sua disposizione, eliminandone i dettagli non necessari ai fini di una risposta, e poi dare l’output. Gli esperti della facoltà hanno valutato le sue risposte, e le hanno messe a confronto con quelle degli studenti del primo e del secondo anno. La versione 3.5 di ChatGPT – quella gratuita, per intenderci – ha conseguito risultati sulla stessa linea degli studenti.
La versione 4 uscita solo a Marzo 2023, invece, è risultata incredibilmente più accurata, con una media di quattro punti in più rispetto agli studenti. Questi risultati per certi versi sorprendenti potrebbero condurre ad un ripensamento su come insegnare la medicina, perché le applicazioni dell’IA prenderanno sempre più piede.
Ovviamente, perché l’IA sostituisca al 100% i medici manca ancora molto. È però un supporto fondamentale per precisione, analisi e rapidità che tutti i medici dovrebbero saper usare nell’immediato futuro. L’ideale, quindi, sarebbe iniziare a insegnare anche a loro a utilizzare efficacemente l’IA, poiché sarà un elemento imprescindibile nella medicina di tutti i giorni.