Cenzura polityczna i manipulacja w internecie

kompowiec

Open Source Boy
2 108
1 995
Ciekawa kwadratura koła wychodzi - mniej userów to wiecej wolności, choć mniej możliwości ciekawych interakcji. Wiecej userów to szersza interakcja dla takiego Milo - ale zaczyna sie agresja copyrightu i normalsów.. Ehh
ale to nie dotyczy zdecentralizowanych uslug

chcesz warezu, szczegolnie swiezego, to szukaj na IRCach - czasem pojawia sie szybciej niz na torrentach.


View: https://www.reddit.com/r/Piracy/comments/2oftbu/guide_the_idiot_proof_guide_to_downloading_ebooks/



wiecej:

 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 335
23 522
Tylko P2P. Jakoś o diasporze czy mastodon nie słychać a są bez cenzury praktycznie (w takim sensie, że nie każdy serwer musi należeć do fediwersum). Może nie jest to full p2p, tyko ActivyPub ale zawsze. Co najwyżej można go cenzurować w podobny sposób co TOR. W przyszłości jednak gdy nadejscie IPFS, takie praktyki staną się niemożliwe.
Natomiast IPFS został pomyślany jako system plików (Inter-Planetary File System), więc stosowanie go do stron www jest słabe. Normalny user nie będzie montował systemu plików, bo nie wie co to jest montowanie.
Opera już to zaimplementowała i działa out of box.

ipfs://helloweb3.crypto

Chcą to sprzedać jako Web3.


View: https://www.youtube.com/watch?v=SBi9mFSWoOs
 

kompowiec

Open Source Boy
2 108
1 995
UE uchwala kontrowersyjne prawo nakazujące 60-minutowe usuwanie treści „terrorystycznych” z sieci

Unia Europejska oficjalnie przyjęła ustawę, zgodnie z którą platformy internetowe będą musiały usuwać treści, które określone zostaną jako terrorystyczne, w ciągu godziny od powiadomienia przez władze państw członkowskich. Niektórzy obawiają się, że prawo będzie miało mrożący wpływ na wolność słowa, ponieważ nad tymi działaniami nie będzie nadzoru, a samą interpretację tego, co jest uznawane za treści terrorystyczne, pozostawia się w rękach lokalnych władz. Platformy, które nie będą przestrzegać prawa, zostaną ukarane grzywną. Ustawa, która wejdzie w życie rok po jej opublikowaniu w dzienniku urzędowym UE, zostanie przyjęta przez wszystkie państwa członkowskie.

UE przyjęła ustawę, wymagającą, by treści terrorystyczne były usuwane w ciągu 60 minut pod karą grzywny. Pojawia się jednak wiele kontrowersji związanych z nowymi przepisami.

Ustawa jest przedmiotem dyskusji od 2018 roku, kiedy to po raz pierwszy zaproponowano jej wprowadzenie, po nasileniu się ataków terrorystycznych w regionie. Ostatecznie uchwalone prawo wykluczało usuwanie treści terrorystycznych przeznaczonych do celów naukowych, dziennikarskich, artystycznych i edukacyjnych. Ponadto wykluczony został przepis nakładający na platformy internetowe obowiązek monitorowania i filtrowania treści terrorystycznych. Mimo to niektórzy uważają, że prawo będzie miało niezamierzone konsekwencje, w tym negatywny wpływ na wolność słowa. Chociaż prawo nie wymaga, aby platformy internetowe zapobiegawczo monitorowały, oznaczały i cenzurowały treści terrorystyczne, serwisy mogą czuć potrzebę wprowadzenia dodatkowych działań, aby uniknąć konieczności zajmowania się powiadomieniami o jednogodzinnym terminie wykonawczym. Aby to zrobić, prawdopodobnie użyte zostaną zautomatyzowane systemy, które mogą ostatecznie cenzurować również legalne treści.

Gwendoline Delbos-Corfield, posłanka do Parlamentu Europejskiego z Francji stwierdziła, że automatyczny system moderowania treści będzie preferowanym wyborem dla platform internetowych, ponieważ "algorytm będzie tańszy niż ludzkie zasoby". Być może najbardziej niepokojący jest jednogodzinny termin, który jest zbyt krótki dla mniejszych platform, ponieważ mają one mniej moderatorów, a właśnie mniejsze platformy są preferowane przez terrorystów, ze względu na słabą moderację treści, albo z powodu braku takiej polityki, albo z braku możliwości. Dlatego prawo będzie faworyzować większe platformy internetowe, które już zdominowały branżę.

 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 335
23 522
Facebook właśnie cofnął swoją decyzję o cenzurze postów zakładających prawdziwość hipotezy o laboratyryjnym pochodzeniu koronawirusa z Wuhan.

 

tolep

five miles out
8 274
14 653

T.M.

antyhumanista, anarchista bez flagi
1 307
4 095
W lecie szczególnie widoczny jest wysyp ekstremistów cyklistów antysamochodowych. Zgłaszam.FB_IMG_1625224006844.jpg
 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 335
23 522

04.07.2021 16:31
Facebook testuje nową funkcję. Platforma social media zaczęła wysyłać powiadomienia z zapytaniem, czy nie obawiamy się o radykalizację swoich znajomych. To mechanizm, który ma zwalczyć ilość drastycznych, ekstremistycznych treści.
Wybrana grupa osób korzystająca z Facebooka otrzymuje dwa typy komunikatów. W jednym z nich platforma pyta się ich, czy nie martwią się o to, czy ich znajomi się radykalizują. Inni otrzymują natomiast komunikat z powiadomieniem, że ich znajomy czytał ostatnio treści ekstremistyczne.
“Ten test jest wycinkiem większego projektu, dzięki któremu chcemy zapewniać możliwości i wsparcie dla użytkowników Facebooka mających kontakt z kimś, kto miał styczność z treściami ekstremistycznymi lub znają kogoś, kto jest na nie narażony” – powiedział rzecznik Facebooka Andy Stone w wypowiedzi dla CNN.
362185524674774690

Facebook zadając te pytania użytkownikom stara się przekierowywać ich na stronę wsparcia, która wyjaśnia jak szerzące nienawiść grupy manipulują uczuciem gniewu i rozczarowania u podatnych osób. “Sięgamy pomocy organizacji pozarządowych oraz ekspertów akademickich i mam nadzieję, że będziemy mogli zaprezentować więcej opcji tego typu w przyszłości” – dodał Stone. Nowa opcja w Facebooku na razie jest testowana wyłącznie w USA.
Ekstremistyczne treści, nawołujące do przemocy, czy aktów agresji często naruszają zasady Facebooka i są po czasie usuwane. Jednak zanim to się stanie, mogą one ruszyć w obieg i siać dezinformację. Facebook odnotowuje fakt, że użytkownik był narażony na takiego typu treści, jak również identyfikuje osoby wielokrotnie udostępniające radykalne treści.
Trudno powiedzieć, czy takie rozwiązania odniosą pożądane skutki, ale wydaje się, że Facebook nie zamierza przestawać myśleć o rozwiązaniach minimalizujących skutki dezinformacji.

Tak po prawdzie, to dla ekstremistów może to też być przydatna funkcja. Dobrze wiedzieć, kto cię czyta i lubi twój kontent. :)
 

kompowiec

Open Source Boy
2 108
1 995
Wszystkie te ruchy są zasadniczo bez sensu. Problemem jest paradygmat w jaki sposób projektuje się dzisiejsze strony, czyli że nie jesteś tym, który wybiera treść, tylko robi to za Ciebie algorytm. Dopóki tego nie zmienią, zawsze będą mieli problem z echo chamberami.
 
Do góry Bottom