📌 Riepilogo:
Il nuovo modello Grok 3 di xAI è stato oggetto di molte critiche da parte degli utenti che hanno scoperto che si rifiutava di menzionare dettagli negativi su Donald Trump ed Elon Musk, nonostante Musk avesse presentato l’AI come “non filtrata” e “massimamente orientata alla verità”.
📌 Dettagli
✅ Grok forniva inizialmente opinioni controverse su Donald Trump e dichiarava che Musk fosse il più grande diffusore di disinformazione.
✅ L’ingegnere di xAI, Igor Babuschkin, ha definito le risposte “davvero strane e un grave errore del modello”, correggendole in modo che Grok ora rifiuti di rispondere sull’argomento.
✅ Giorni dopo, è stato rivelato che Grok 3 era stato istruito per escludere fonti che collegavano Trump e Musk a temi controversi come la disinformazione.
✅ Babuschkin ha dichiarato che il responsabile della censura è un ex dipendente di OpenAI, affermando che non si è ancora pienamente adattato alla cultura di xAI.
✅ Nel frattempo, dipendenti di OpenAI hanno criticato xAI per non aver pubblicato i dati comparativi sui benchmark di Grok 3, ma Babuschkin ha risposto che le accuse sono “completamente sbagliate”.
💡 Perché è importante?
Musk ha sempre criticato le piattaforme social e i modelli AI di avere limitata libertà di parola, ma se la sua stessa AI fa il medesimo?
Queste censure iniziano a mostrare crepe nella narrazione di Musk sulla sua AI “senza bias”.