Attualità
Google sospende le immagini di Gemini AI dopo i soldati tedeschi sbagliati
L’intelligenza artificiale della Google, Gemini, ha mostrato notevoli inesattezze storiche nella sua funzionalità di generazione di immagini, producendo risultati comici come tra l’altro ritrarre persone di colore come Padri fondatori degli Stati Uniti, o gerarchi nazisti essendo «etnicamente corretti».
“Abbiamo già iniziato ad affrontare i recenti problemi con la generazione delle immagini da parte del sistema Gemini. Mentre ci occupiamo di questi, abbiamo deciso di mettere in standby la funzionalità di generazione delle immagini, con l’intenzione di rilasciare in futuro una versione migliorata“, queste le parole di Google, che ha deciso di mettere a riposo la sua intelligenza artificiale Gemini. Gemini ha sostituito Bard, precedentemente noto come il nemico di ChatGpt. Questa misura drastica è stata adottata in seguito a una serie di errori storici che Gemini commetteva producendo immagini su richiesta degli utenti.
Tuttavia, cosa è successo concretamente? Un paio di giorni fa, un utente ha condiviso su X, che è il vecchio Twitter, l’errore di Gemini rispondendo alla sua richiesta di «generare un’immagine di un soldato tedesco del 1943». L’IA ha proposto quattro immagini di soldati, uno bianco, uno nero e due sono donne asiatiche. Queste immagini, ovviamente, errate in modo comico, hanno sollevato scherno e derisione, particolarmente da parte di coloro che si oppongono al cosiddetto «blackwashing» (in cui un attore di colore interpreta il ruolo di un personaggio storico di un’altra etnia) o al «genderflipping» (quando il sesso di un personaggio è cambiato in un adattamento o reboot). Il principale argomento di questi critici è che le intelligenze artificiali sono eccessivamente «woke».
Oltre ai soldati nazisti, in questi giorni su internet si parla anche dei Padri fondatori degli USA di colore e della risposta di Gemini alla richiesta di creare degli esempi di ‘senatori degli Stati Uniti del 1800’, mostrando dei volti di donne nere e indigene. Ciò è accaduto nonostante la prima senatrice donna sia stata eletta solo nel 1922. In sintesi, la probabile volontà di Google di promuovere la diversità nei dati di addestramento dell’IA ha portato a queste grottesche inesattezze storiche.
Google stessa ha dichiarato: “Siamo consapevoli che Gemini ha mostrato inesattezze in alcune rappresentazioni storiche durante la generazione di immagini”, annunciando successivamente un’immediata sospensione della funzione: “I contesti storici sono pieni di sfumature e flessibilità, quindi ci stiamo adeguando a questa complessità”, ha dichiarato Jack Krawczyk, Senior Director of Product di Gemini. Google aveva iniziato a offrire la generazione di immagini attraverso i vari modelli di Gemini AI solo all’inizio di questo mese.