Dal Mondo

18 Agosto 2025

Chiede a ChatGPT come sostituire il sale e finisce intossicato

Chiede a ChatGPT come sostituire il sale e finisce intossicato

Il brutto vizio di curarsi seguendo i consigli sul web era già abbastanza radicato, ma ora con ChatGPT si è scatenato il delirio.

Il recente caso dell’uomo finito intossicato dopo aver chiesto all’intelligenza artificiale con cosa sostituire il sale nella propria dieta, ne è un esempio eclatante.

Il 60enne si era informato inizialmente sui possibili effetti nocivi del sale nella propria alimentazione, poi ha chiesto a ChatGPT come sostituirlo e, senza preoccuparsi della bontà del suggerimento, ha seguito pedissequamente la risposta.

L’intelligenza artificiale ha suggerito all’uomo di sostituire il sale con il bromuro di sodio e dopo tre mesi il 60enne, sentendosi male, si è recato in ospedale dove gli hanno diagnosticato una severa forma di bromismo.

Il bromismo, come spiega bene la Treccani, è un’intossicazione cronica da preparati di bromo che si manifesta con irritazione delle mucose rinofaringea e bronchiale, poi con un’eruzione cutanea tipo acne e quindi inappetenza, nausea, disturbi gastroenterici, albuminuria, depressione delle funzioni psichiche.

Il caso del 60enne, che solo perché credeva di essere stato avvelenato da ignoti si è recato in ospedale, è stato ampiamente descritto dai medici dell’università di Washington in un articolo scientifico apparso su una rivista specializzata.

Gli autori hanno evidenziato come l’uso improprio dell’intelligenza artificiale possa potenzialmente contribuire allo sviluppo di esiti sanitari avversi prevenibili e che ChatGPT e altre app di intelligenza artificiale potrebbero generare inesattezze scientifiche, non essere in grado di discutere criticamente i risultati e, in definitiva, alimentare la diffusione di disinformazione.

NEWS DAL MONDO