Softul de inteligență artificială al Facebook a catalogat oamenii de culoare drept „primate”, notează BBC.

Astfel, utilizatorilor platformei de social media le era recomandat „să continue să vadă videoclipuri despre primate” după vizionarea unui clip cu oameni de culoare. Inteligența artificială care se ocupă de conținutul recomandat ar fi de vină, susțin cei de la Facebook.

„În mod clar, a fost o eroare inacceptabilă. Ne cerem scuze tuturor celor care au văzut aceste recomandări ofensatoare”, a fost declarația oficială a companiei, conform sursei citate.

Recomandări

CE TE SURPRINDE LA GRAMMY?
GALA GRAMMY E ȘI DESPRE MODĂ
CINE CÂȘTIGĂ PREMIILE GRAMMY?
CRYING HAPPY TEARS
CHATBOȚII PREIAU FLIRTUL PE TINDER
O LUĂM UȘOR?

Reprezentanții Facebook spun că au oprit sistemul de inteligență artificială imediat ce au aflat despre cele întâmplate. Aceștia ar investiga cauza și să prevină posibilele incidente asemănătoare.

„Chiar dacă am făcut progrese în ceea ce privește IA, știm că nu este perfectă și mai avem mult de muncă”, au încheiat declarația cei de la Facebook.

Partenerii noștri