Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
…e l’idea nasce dalla storia personale della CEO, che ha scoperto grazie all’AI un rischio potenzialmente letale legato a un farmaco prescrittole.
OpenAI ha lanciato ChatGPT Health, un assistente AI che si integra con cartelle cliniche e app di fitness per rispondere a domande sulla salute. Nato da un'enorme domanda di mercato, il servizio promette una gestione sanitaria personalizzata. Tuttavia, emergono dubbi sull'affidabilità di un modello predittivo e sulla privacy dei dati sensibili affidati a una Big Tech.
La storia che (forse) ti convincerÃ
A dare il via a tutto, come spesso accade, c’è una storia personale, quasi da film. Fidji Simo, la CEO delle Applicazioni di OpenAI, ha raccontato un episodio che le è capitato l’anno scorso e che fa riflettere.
Dopo essere stata ricoverata per un calcolo renale, le è stato prescritto un antibiotico standard. Prima di prenderlo, ha avuto l’istinto di controllarlo su ChatGPT, incrociando il farmaco con la sua storia clinica.
Il risultato?
L’intelligenza artificiale ha segnalato che quell’antibiotico avrebbe potuto riattivare una grave infezione che aveva avuto anni prima, potenzialmente letale.
La stessa Simo ha raccontato che il medico di turno, messo al corrente, è stato sollevato, ammettendo di avere solo pochi minuti per paziente e che le cartelle cliniche non sono organizzate per evidenziare subito rischi del genere.
Una storia perfetta, che dipinge ChatGPT come un angelo custode digitale.
Ma una buona storia, da sola, non basta per garantire che uno strumento del genere sia davvero affidabile.
Due anni di lavoro e un “esercito” di medici
Per dare credibilità a un progetto così delicato, come ChatGPT Health, OpenAI ha messo in campo risorse notevoli.
Stando a quanto descritto da Fortune, il prodotto è il risultato di circa due anni di lavoro e della collaborazione con oltre 260 medici di 60 paesi diversi. Questi professionisti hanno fornito più di 600.000 feedback per affinare le risposte del modello, insegnandogli quando è il caso di suggerire un consulto medico urgente e come comunicare informazioni complesse in modo chiaro ma non semplicistico.
Per gestire i dati delle cartelle cliniche negli Stati Uniti, si sono affidati a b.well, un’importante rete di dati sanitari. Insomma, sulla carta hanno fatto i compiti a casa.
E qui, però, arriviamo al nodo della questione, quello che spesso non viene detto a caratteri cubitali.
La cruda verità : è un predittore, non un medico
Non dimentichiamoci mai come funzionano questi strumenti. Un modello linguistico come ChatGPT non “ragiona” sulla correttezza di un’informazione, ma si limita a prevedere la sequenza di parole più probabile in risposta a una domanda. È un potentissimo calcolatore di probabilità , non un oracolo della verità .
E infatti, tende a inventare informazioni (“allucinazioni“, le chiamano).
La stessa OpenAI, nei suoi termini di servizio, mette nero su bianco che ChatGPT “non è destinato all’uso nella diagnosi o nel trattamento di alcuna condizione di salute”.
Un paradosso, non trovi?
Ti danno uno strumento per la salute, ma ti dicono di non usarlo per la salute.
A questo si aggiunge la questione della privacy. La promessa è uno spazio isolato e protetto, dove le conversazioni non vengono usate per addestrare i modelli.
Ma la vera domanda è un’altra: siamo davvero disposti a consegnare la nostra intera storia clinica a una Big Tech che, peraltro, è in piena corsa contro giganti come Google per diventare il punto di riferimento dell’AI in campo medico?
La promessa è quella di un assistente sanitario personale sempre disponibile, ma il rischio è affidare la nostra salute a un algoritmo che, per sua stessa ammissione, potrebbe sbagliarsi.
