Mowa nienawiści jak wirus komputerowy

Reklama

sob., 12/21/2019 - 23:36 -- Anonim (niezweryfikowany)

Naukowcy z Cambridge University uważają, że coraz powszechniejsza na portalach społecznościowych mowa nienawiści może być rozpatrywana pod kątem ewentualnego użycia wobec niej „kwarantanny”, stosowanej w walce ze złośliwymi oprogramowaniami.

Definicja mowy nienawiści zależy od nacji, prawa i platformy. Blokowanie słów kluczowych nie ma większego sensu, bo przecież graficzne przedstawianie przemocy nie musi zawierać oczywistych etnicznych prowokacji, ani być rasistowską groźbą śmierci.

Ciężko jest `z marszu` wpaść na mowę nienawiści. Żeby była za taką uważana, musi bowiem zostać zgłoszona przez osobę, do której została adresowana, i która w związku z tym doznała „szkody psychicznej”.

To nowe pole bitwy w ramach bardzo starej debaty: wolność słowa kontra jadowity język.

Baza zniewag

Inżynierowie i lingwiści złożyli na łamach Ethics and Information Technology propozycję, żeby w przypadku mowy nienawiści wykorzystywać techniki bezpieczeństwa cybernetycznego, bez uciekania się do cenzury.

Uniwersyteccy eksperci od języków i maszyn już pracują nad algorytmem, który mógłby pomóc w ocenie prawdopodobieństwa internetowego przekazu zawierającego jakąś formę mowy nienawiści. Do pracy wykorzystują dostępne bazy zniewag.

Gdy algorytm redefiniuje się, potencjalna mowa nienawiści może zostać zidentyfikowana i umieszczona w „kwarantannie”.

Użytkownicy otrzymają wtedy ostrzeżenie "Hate O'Meter" – ocenę mowy nienawiści (na ile jest groźna), imię nadawcy i propozycję wglądu w treść lub jej usunięcia.

Autor: 
Tłum. Emilia Liberda
Źródło: 
Agencija
Zagłosowałeś na opcję 'w górę'.
Polub Plportal.pl:

Reklama