Il concetto di Intelligenza Artificiale non è più astratto o confinato nei film di fantascienza come ‘’2001: Odissea nello Spazio’’, per citare uno dei più famosi: da diversi anni l’Intelligenza Artificiale è entrata nelle nostre vite, nella medicina, nella robotica, nelle nostre case con gli assistenti vocali Alexa e Siri per aiutarci a maneggiare smartphone o elettrodomestici o battendo a scacchi il campione mondiale Garry Kasparov, e si sta perfezionando sempre più sia in ambito industriale che domestico.
L’ultima frontiera è ChatGpt – che sta per Generative Pre-trained Transformer – una chatbot, ovvero un software progettato da OpenAI che sa rispondere alle domande, conversare, generare testi, foto, traduzioni, presentazioni, spiegare in parole semplici un concetto complesso, tutto al posto di un essere umano. Il fratello più intelligente di Google, un rivale ormai consolidato nonché un fenomeno tecnologico che sta ormai dilagando in molte aziende che si sono rese conto dell’utilità di questi strumenti per creare contenuti e che sta confinando anche nelle traduzioni di testi di media complessità, ipotizzando che tra un decennio l’intelligenza artificiale riuscirà a dare traduzioni perfette per almeno le prime 10 lingue più parlate nel mondo. Uno scenario che apre la possibilità del suo utilizzo anche in ambito sanitario e che sta già sostituendo i lavoratori nelle aziende statunitensi per svolgere sondaggi e analisi di mercato ad ampio spettro, pianificazione e organizzazione di attività.
L’altra faccia della medaglia che ne consegue, come accade per tutte le nuove tecnologie, è l’interrogativo di cui si stanno occupando i direttori delle riviste scientifiche: si deve citare ChatGpt tra gli autori dell’articolo? Un’implicazione questa che apre ad altri innumerevoli interrogativi, ad esempio se sia giusto incolpare un medico che sbaglia l’interpretazione di un esame dopo essere stato assistito da un sistema di Intelligenza Artificiale, che resta pur sempre un ammasso di ferraglia e che non potrà mai sostituire l’intelligenza umana, fallibile certo, ma insostituibile.
E non bisogna dimenticare per l’appunto la fallibilità di questi strumenti tecnologici che sfocerebbe inevitabilmente in fake news, attività di phishing, plagio, poca chiarezza sulla privacy. Tutti limiti che potrebbero essere risolti soltanto dall’abilità dell’uomo.
E in sanità cosa potremo aspettarci? Med-PaLM. Ebbene sì, anche in campo sanitario saremo dotati di un software progettato per rispondere a domande di carattere medico, sia da parte di professionisti sanitari che dei cittadini-pazienti.
Med-PALM – che sta per Pathways Language Model – risponderebbe a domande a scelta multipla e a quesiti posti da professionisti e non professionisti del settore medico simulando le risposte date da un uomo in carne ed ossa col camice bianco. Un sistema che aiuterebbe i professionisti sanitari a gestire meglio la mole di lavoro e i pazienti da gestire e su cui i ricercatori stanno lavorando per attenuare il divario tra le riposte date dagli esperti clinici e l’Intelligenza Artificiale – come è accaduto ad un chatbot medico francese che qualche anno fa aveva consigliato ad un paziente in un contesto simulato di suicidarsi.
Si potrà davvero affermare l’Intelligenza Artificiale potrà essere un valido alleato anche per medici e operatori sanitari nel dialogo con i pazienti? La risposta resta ancora incompiuta.