Una valutazione dei Gemelli di Google
La tecnologia dell’intelligenza artificiale (AI) ha è ampiamente maturato e sta attualmente trasformando quasi ogni ambito della vita, dai gadget personali all’assistenza sanitaria e persino a creazione artistica. Un esempio intrigante di tale progressione è il nuovo generatore di immagini AI di Google, Gemini, che genera foto in base alle descrizioni di testo inserite al suo interno. Tuttavia, l’approccio dello strumento di intelligenza artificiale all’etnia e alla diversità ha attirato una certa attenzione.
Nel creare immagini secondo le descrizioni fornite, Gemini di Google dimostra una funzionalità molto simile ai suoi precursori come Dolly e Mid Journey. Tuttavia, l’esecuzione di Gemini sembra ipoteticamente alludere a un pregiudizio di fondo. Ha scatenato un dibattito globale quando gli utenti ne hanno identificato l’apparente pregiudizio anti-bianco. In risposta, Google ha ammesso il problema e si è impegnata a risolverlo tempestivamente. Nonostante la probabilità che i risultati innescati da queste descrizioni possano essere successivamente cambiati, le risposte iniziali dell’IA costituiscono uno studio interessante.
Decodifica delle risposte dei Gemelli
Quando è stato incaricato di generare un’immagine di alcuni tedeschi, Gemini ha prodotto un’immagine che mostrava un insieme eterogeneo di individui tedeschi. È interessante notare che i personaggi nell’immagine sintetizzata somigliavano a femministe vegane durante una festa, condividendo l’inquadratura con un uomo di colore e la sua compagna. Ciò implica che l’intelligenza artificiale interpreta il “popolo tedesco” come un mix assortito di individui, forse rispecchiando l’attuale crescente diversità razziale ed etnica all’interno della società tedesca.
Le caratteristiche salienti delle risposte di Gemini comprendevano:
- Un rifiuto di generare un’immagine sulla base della direttiva “bella famiglia bianca”, rispettando il comando di una “bella famiglia nera”.
- Un rifiuto di creare immagini di un “uomo bianco di successo” o di un “uomo bianco forte”, ma di facilitare immagini di un “uomo nero di successo” e di un “uomo nero forte”
- Un’eclettica gamma razziale e di genere nelle immagini di personaggi storicamente europei come “un cavaliere medievale” o “un vichingo”
Esame dettagliato del funzionamento dei Gemelli
[Contenuto da inserire qui]
Dedurre la percezione del femminismo da parte dei Gemelli
[Contenuto da inserire qui]
Delibera sulla parzialità dell’IA
Il modo in cui l’intelligenza artificiale si avvicina alla creazione di immagini fa luce su un problema tecnologico più ampio, vale a dire pregiudizi dell’IA. I seguenti punti sintetizzano le principali preoccupazioni:
- Poiché gli strumenti di intelligenza artificiale ricavano risultati da set di dati, qualsiasi pregiudizio all’interno di questi set di dati potrebbe potenzialmente far sì che l’intelligenza artificiale rafforzi e amplifica stereotipi dannosi.
- L’identificazione dei pregiudizi razziali all’interno di Gemini segnala potenziali problemi con i set di dati di addestramento e gli algoritmi da esso implementati.
Accettazione e risposta di Google alle complicanze rilevate
Dopo aver riconosciuto i problemi identificati, Google ha espresso la garanzia di risolverli. I principali punti di forza sono descritti di seguito:
- Google riconosce le imprecisioni nella generazione delle immagini storiche di Gemini.
- È in corso uno sforzo per garantire che lo strumento rifletta le realtà della base di utenti globale.
Sottolineare la diversità nello sviluppo dell’IA
La circostanza attuale sottolinea l’imperativo di migliorare costantemente l’intelligenza artificiale per limitare e correggere qualsiasi pregiudizio. Le considerazioni cardinali per il potenziale sviluppo dell’IA comprendono:
- Addestrare l’IA su diversi set di dati e farla testare da individui provenienti da contesti diversi.
- Garantire che il processo di sviluppo dell’intelligenza artificiale incapsula diversità e inclusività per evitare potenziali danni dovuti a pregiudizi.