Gdy rewolucja zjada własne dzieci

pawlis

Samotny wilk
2 251
7 959

pawlis

Samotny wilk
2 251
7 959
Alice Schwarzer, wieloletnia ikona ruchu feministycznego w krajach niemieckojęzycznych, podczas burzliwej debaty nt. czadorów dotknęła ramienia protestującej muzułmanki. Na wrzaski Nie dotykaj mnie! Schwarzer sarkastycznie powiedziała: Myślałam, że tylko mężczyźni nie mogą cię dotykać. Lewica uznała to za dyskryminację, a Schwarzer wg niej nie jest prawdziwą feministką:
https://www.bazonline.ch/articles/13674336
 

pawlis

Samotny wilk
2 251
7 959
Biali muszą płacić 2 razy wyższe ceny za bilety na festiwal AfroFuture Fest, bo czarni są od zawsze poszkodowani i dostają ulgę "historyczną".

Od kogo organizatorzy festiwalu dostali opierdziel?

Od muzyczki, mulatki Tiny Jag, która mówi, "że to nie-progresywne":
https://www.metrotimes.com/city-slang/archives/2019/07/04/tiny-jag-pulls-out-of-afrofuture-fest-after-learning-white-people-would-be-charged-a-different-price-to-attend

Oraz od czarnoskórego rapera ZUBY, który nazywa wprost to rasizmem:
 

T.M.

antyhumanista, anarchista bez flagi
1 217
3 638
Zaraz jebnę:

Racial bias observed in hate speech detection algorithm from Google.

Na czym polega to racial bias?



Jak widzimy na obrazku powyżej, dane wyrażenie może być zakwalifikowane jako hate speech jedynie na podstawie jego treści. To błąd! Przecież N-word jest toksycznym wyrażeniem tylko wtedy, kiedy pisze je biały do czarnego (albo biały do białego), ale kiedy czarny do czarnego (a pewnie i czarny do białego) to już nie jest. Pewne społeczności mają swój slang, a to przecież część ich dziedzictwa kulturowego.

Kolejny artykuł na ten temat:

The algorithms that detect hate speech online are biased against black people

Platforms like Facebook, YouTube, and Twitter are banking on developing artificial intelligence technology to help stop the spread of hateful speech on their networks. The idea is that complex algorithms that use natural language processing will flag racist or violent speech faster and better than human beings possibly can. Doing this effectively is more urgent than ever in light of recent mass shootings and violence linked to hate speech online.

But two new studies show that AI trained to identify hate speech may actually end up amplifying racial bias. In one study, researchers found that leading AI models for processing hate speech were one-and-a-half times more likely to flag tweets as offensive or hateful when they were written by African Americans, and 2.2 times more likely to flag tweets written in African American English (which is commonly spoken by black people in the US). Another study found similar widespread evidence of racial bias against black speech in five widely used academic data sets for studying hate speech that totaled around 155,800 Twitter posts.

This is in large part because what is considered offensive depends on social context. Terms that are slurs when used in some settings — like the “n-word” or “queer” — may not be in others. But algorithms — and content moderators who grade the test data that teaches these algorithms how to do their job — don’t usually know the context of the comments they’re reviewing.
Jak widzimy, przed AI jeszcze sporo wyzwań. Musi nadążać za społecznymi konstruktami, a te wciąż ewoluują... i coraz więcej zależy w nich od "kontekstu". Przekłada się to na prostą zależność: to, co możesz powiedzieć, zależy od twojego koloru skóry.
 
Ostatnia edycja:

Prozac

Member
38
83
@pawlis
Mam jeszcze te podpaski z symbolem Wenus w domu. Za kilka lat spróbuję je sprzedać i zobaczę co się stanie.
1) Feministki będą płacić milion dolarów za sztukę (pod warunkiem że zwykle podpaski nie będą warte miliona za kilka lat)?
2) Zostanę zbanowana ze strony do sprzedaży rzeczy za próbę sprzedawania transfobicznych, faszystowskich, alt-right'owskich, lgbtqazertyuiopqsdfghjklmwxcvbn-fobicznych rzeczy?
 
Ostatnia edycja:
Do góry Bottom