fbpx

"Każdy rząd pozbawiony krytyki jest skazany na popełnianie błędów"

5.9 C
Warszawa
piątek, 19 kwietnia, 2024

"Każdy rząd pozbawiony krytyki jest skazany na popełnianie błędów"

Niedobory intelektualne sztucznej inteligencji Facebooka

Pracownicy Facebooka wątpią w system mający rozpoznawać mowę nienawiści – podaje „Breitbart News”

Warto przeczytać

Choć szefostwo Facebooka kładzie duży nacisk na wykorzystanie sztucznej inteligencji (AI), by wyłapywać i usuwać „mowę nienawiści” ze swojej platformy społecznościowej, to wewnętrzne dokumenty ujawniają, że stworzona przez pracowników Marka Zuckerberga AI wcale nie jest tak zaawansowana, jak mogłoby się wydawać.

„The Wall Street Journal” dotarł do wewnętrznych informacji Facebooka, z których wynika, że inżynierowie firmy są dużo mniej optymistyczni w ocenie systemu sztucznej inteligencji, którego zadaniem jest cenzurowanie platformy i usuwanie z niej mowy nienawiści oraz przemocy, niż kierownictwo firmy. W dokumentach zawarto informację między innymi o tym, że system AI nie sprawdza się przy identyfikowaniu filmów ze strzelaninami kręconymi z perspektywy pierwszej osoby. Okazało się również, że nie potrafi dostrzec różnicy pomiędzy wypadkami samochodowymi, a… walkami kogutów.

Poza tym wiele do życzenia pozostaje konsekwencja w usuwaniu treści naruszających standardy społeczności Facebooka. Kiedy algorytm nie daje rozstrzygającego wyniku, czyli „nie ma pewności” co do tego, czy daną treść usunąć, ogranicza jej zasięgi (wyświetlenia), ale nie blokuje jej. Pracownicy Facebooka uważają, że wyławiane przez AI treści stanowią mniej niż 10 proc. wszystkich wpisów, które powinny zostać usunięte.

Z dokumentów, o których napisał „Wall Street Journal”, wynika również, że od 2019 r. ograniczono działania recenzentów (ludzi przeglądających zgłoszone treści) na rzecz większego zaangażowania sztucznej inteligencji w ten proces. Osoby odpowiedzialne za usuwanie nieodpowiednich treści z platformy są jednak przekonane, że sztuczna inteligencja Facebooka nie jest jeszcze wystarczająco rozwinięta, by skutecznie pełnić to zadanie.

„Problem polega na tym, że nie mamy i prawdopodobnie nigdy nie będziemy mieć modelu, który uchwyci nawet większość szkód związanych z integralnością, szczególnie w obszarach wrażliwych” – czytamy w notatce sporządzonej przez starszego inżyniera i badacza w połowie 2019 r.

Według szacunku jednego z inżynierów system AI usunął 2 proc. postów zawierających mowę nienawiści. „Ostatnie szacunki sugerują, że o ile nie nastąpi poważna zmiana strategii, bardzo trudno będzie poprawić to powyżej 10-20 proc. w perspektywie krótko, czy średnioterminowej” – dodał.

Więcej artykułów

ZOSTAW ODPOWIEDŹ

Wpisz komentarz!
Wpisz imię

Najnowsze artykuły

Translate »