Softul de inteligență artificială al Facebook a catalogat oamenii de culoare drept „primate”, notează BBC.
Astfel, utilizatorilor platformei de social media le era recomandat „să continue să vadă videoclipuri despre primate” după vizionarea unui clip cu oameni de culoare. Inteligența artificială care se ocupă de conținutul recomandat ar fi de vină, susțin cei de la Facebook.
„În mod clar, a fost o eroare inacceptabilă. Ne cerem scuze tuturor celor care au văzut aceste recomandări ofensatoare”, a fost declarația oficială a companiei, conform sursei citate.
Reprezentanții Facebook spun că au oprit sistemul de inteligență artificială imediat ce au aflat despre cele întâmplate. Aceștia ar investiga cauza și să prevină posibilele incidente asemănătoare.
„Chiar dacă am făcut progrese în ceea ce privește IA, știm că nu este perfectă și mai avem mult de muncă”, au încheiat declarația cei de la Facebook.