Cenzura polityczna i manipulacja w internecie

inho

Well-Known Member
1 635
4 511
https://wikileaks.org/podesta-emails/emailid/37262

Ciekawy email Eric'a Shmidt'a (jeden z wysokich menedżerów google) do organizatorów kampanii wyborczej Hillary Clinton. W tym mailu opisuje jak zorganizować skuteczną kampanię, żeby ludzie zagłosowali "właściwie". Opisuje jak wykorzystać technologie online i narzędzia z poprzedniej kampanii Obamy - między innymi do identyfikacji preferencji wyborczych użytkowników internetu i telefonów komórkowych oraz odnajdywania ich rzeczywistych danych osobowych w celu bezpośredniej agitacji przez wolontariuszy.

Eric Shmidt ostatecznie współorganizował i współfinansował parę organizacji, które brały aktywny udział w kampaniach Obamy i Clinton. W kontekście ostatnich rozważań na forum, czy google (i podobni) doszli do swojej pozycji rynkowej samodzielnie czy nie - ciekawy jestem, jakimi przysługami odwdzięczała się googlowi Partia Demokratyczna i administracja Obamy...
 

rawpra

Well-Known Member
2 741
5 402
https://www.nytimes.com/2018/08/28/technology/inside-facebook-employees-political-bias.html

Dozens at Facebook Unite to Challenge Its ‘Intolerant’ Liberal Culture
Image
merlin_136677285_56f27f21-2988-41ef-b477-4c382907a017-articleLarge.jpg

Facebook’s chief executive, Mark Zuckerberg, told Congress this year that he wanted the company to “be a platform for all ideas.”CreditCreditTom Brenner/The New York Times


By Kate Conger and Sheera Frenkel

  • Aug. 28, 2018
SAN FRANCISCO — The post went up quietly on Facebook’s internal message board last week. Titled “We Have a Problem With Political Diversity,” it quickly took off inside the social network.

“We are a political monoculture that’s intolerant of different views,” Brian Amerige, a senior Facebook engineer, wrote in the post, which was obtained by The New York Times. “We claim to welcome all perspectives, but are quick to attack — often in mobs — anyone who presents a view that appears to be in opposition to left-leaning ideology.”

Since the post went up, more than 100 Facebook employees have joined Mr. Amerige to form an online group called FB’ers for Political Diversity, according to two people who viewed the group’s page and who were not authorized to speak publicly. The aim of the initiative, according to Mr. Amerige’s memo, is to create a space for ideological diversity within the company.

The new group has upset other Facebook employees, who said its online posts were offensive to minorities. One engineer, who declined to be identified for fear of retaliation, said several people had lodged complaints with their managers about FB’ers for Political Diversity and were told that it had not broken any company rules.

Another employee said the group appeared to be constructive and inclusive of different political viewpoints. Mr. Amerige did not respond to requests for comment.

The activity is a rare sign of organized dissent within Facebook over the company’s largely liberal workplace culture. While the new group is just a sliver of Facebook’s work force of more than 25,000, the company’s workers have in the past appeared less inclined than their peers at other tech companies to challenge leadership, and most have been loyalists to its chief executive, Mark Zuckerberg.



But over the past two years, Facebook has undergone a series of crises, including the spread of misinformation by Russians on its platform and the mishandling of users’ data. Facebook has also been accused of stifling conservative speech by President Trump and Senator Ted Cruz, Republican of Texas, among others. This month, the social network barred the far-right conspiracy theorist Alex Jones, a move that critics seized on as further evidence that the company harbors an anti-conservative bias.

Within Facebook, several employees said, people have argued over the decisions to ban certain accounts while allowing others. At staff meetings, they said, some workers have repeatedly asked for more guidance on what content the company disallows, and why. Others have said Facebook, out of fear of being seen as biased, has let too many right-wing groups flourish on the site.

The dispute over employees’ political ideology arose a week before Sheryl Sandberg, Facebook’s chief operating officer, is scheduled to testify at a Senate hearing about social media manipulation in elections. A team helping Ms. Sandberg get ready for the hearing next Wednesday has warned her that some Republican lawmakers may raise questions about Facebook and biases, according to two people involved in the preparations.

On Tuesday, Mr. Trump again brought up the issue of bias by tech companies with tweets attacking Google. In remarks later in the day, he widened his focus to include Twitter and Facebook.

Those companies “better be careful because you can’t do that to people,” Mr. Trump said. “I think that Google, and Twitter and Facebook, they are really treading on very, very troubled territory and they have to be careful. It is not fair to large portions of the population.”

‘We Have a Problem With Political Diversity’
A senior Facebook engineer wrote an internal message about what he described as the company’s “monoculture.”


2 pages, 0.08 MB
Facebook has long been viewed as a predominantly liberal company. Mr. Zuckerberg and Ms. Sandberg have donated to Democratic politicians, for example, and have supported issues such as immigration reform.

The social network has sometimes struggled to integrate conservatives into its leadership. Palmer Luckey, the founder of Oculus, the maker of virtual reality goggles that Facebook acquired, was pressured to leave the company last year, months after news spread that he had secretly donated to an organization dedicated to spreading anti-Hillary Clinton internet memes. And Peter Thiel, an outspoken supporter of Mr. Trump, has faced calls for his resignation from Facebook’s board.

Mr. Zuckerberg publicly defended Mr. Thiel last year, saying that he valued Mr. Thiel and that it was important to maintain diversity on the board. In an appearance before Congress this year, Mr. Zuckerberg responded to a question about anticonservative bias by saying he wanted Facebook to “be a platform for all ideas.”

In May, Facebook announced that former Senator Jon Kyl, an Arizona Republican, would lead an inquiry into allegations of anticonservative bias on the social network. New employees also go through training that describes how to have respectful conversations about politics and diversity.

Other Silicon Valley companies, including Google, have also experienced a wave of employee activism over diversity. If tech companies are willing to adjust their workplaces to make underrepresented groups more welcome, some employees argue, they should extend the same regard to those who do not fit the liberal-leaning Silicon Valley mold.

Mr. Amerige, who started working at Facebook in 2012, said on his personal website that he followed philosophical principles laid out by the philosopher and writer Ayn Rand. He posted the 527-word memo about political diversity at Facebook on Aug. 20.

On issues like diversity and immigration, he wrote, “you can either keep quiet or sacrifice your reputation and career.”

Mr. Amerige proposed that Facebook employees debate their political ideas in the new group — one of tens of thousands of internal groups that cover a range of topics — adding that this debate would better equip the company to host a variety of viewpoints on its platform.

“We are entrusted by a great part of the world to be impartial and transparent carriers of people’s stories, ideas and commentary,” Mr. Amerige wrote. “Congress doesn’t think we can do this. The president doesn’t think we can do this. And like them or not, we deserve that criticism.”
japierdole, oni tolerują prawaków nie dlatego że szanują wolność słowa ale dlatego że "inclusivity" i "diversity"
 
OP
OP
kr2y510

kr2y510

konfederata targowicki
12 770
24 700
Breitbart upublicznił wewnętrzne wideo z Google tuż po elekcji Trumpa.
LEAKED VIDEO: Google Leadership’s Dismayed Reaction to Trump Election

Key moments from the video can be found at the following timestamps:

  • (00:00:00 – 00:01:12) Google co-founder Sergey Brin states that the weekly meeting is “probably not the most joyous we’ve had” and that “most people here are pretty upset and pretty sad.”
  • (00:00:24) Brin contrasts the disappointment of Trump’s election with his excitement at the legalization of cannabis in California, triggering laughs and applause from the audience of Google employees.
  • (00:01:12) Returning to seriousness, Brin says he is “deeply offen[ded]” by the election of Trump, and that the election “conflicts with many of [Google’s] values.”
  • (00:09:10) Trying to explain the motivations of Trump supporters, Senior VP for Global Affairs, Kent Walker concludes: “fear, not just in the United States, but around the world is fueling concerns, xenophobia, hatred, and a desire for answers that may or may not be there.”
  • (00:09:35) Walker goes on to describe the Trump phenomenon as a sign of “tribalism that’s self-destructive [in] the long-term.”
  • (00:09:55) Striking an optimistic tone, Walker assures Google employees that despite the election, “history is on our side” and that the “moral arc of history bends towards progress.”
  • (00:10:45) Walker approvingly quotes former Italian Prime Minister Matteo Renzi’s comparison between “the world of the wall” with its “isolation and defensiveness” and the “world of the square, the piazza, the marketplace, where people come together into a community and enrich each other’s lives.”
  • (00:13:10) CFO Ruth Porat appears to break down in tears when discussing the election result.
  • (00:15:20) Porat promises that Google will “use the great strength and resources and reach we have to continue to advance really important values.”
  • (00:16:50) Stating “we all need a hug,” she then instructs the audience of Google employees to hug the person closest to them.
  • (00:20:24) Eileen Naughton, VP of People Operations, promises that Google’s policy team in DC is “all over” the immigration issue and that the company will “keep a close watch on it.”
  • (00:21:26) Naughton jokes about Google employees asking, ‘Can I move to Canada?’ after the election. She goes on to seriously discuss the options available to Google employees who wish to leave the country.
  • (00:23:12) Naughton does acknowledge “diversity of opinion and political persuasion” and notes that she has heard from conservative Google employees who say they “haven’t felt entirely comfortable revealing who [they] are.” and urged “tolerance.” (Several months later, the company would fire James Damore allegedly for disagreeing with progressive narratives.)
  • (00:27:00) Responding to a question about “filter bubbles,” Sundar Pichai promises to work towards “correcting” Google’s role in them
  • (00:27:30) Sergey Brin praises an audience member’s suggestion of increasing matched Google employee donations to progressive groups.
  • (00:34:40) Brin compares Trump voters to “extremists,” arguing for a correlation between the economic background of Trump supporters and the kinds of voters who back extremist movements. Brin says that “voting is not a rational act” and that not all of Trump’s support can be attributed to “income disparity.” He suggests that Trump voters might have been motivated by boredom rather than legitimate concerns.
  • (00:49:10) An employee asks if Google is willing to “invest in grassroots, hyper-local efforts to bring tools and services and understanding of Google products and knowledge” so that people can “make informed decisions that are best for themselves.” Pichai’s response: Google will ensure its “educational products” reach “segments of the population [they] are not [currently] fully reaching.”
  • (00:54:33) An employee asks what Google is going to do about “misinformation” and “fake news” shared by “low-information voters.” Pichai responds by stating that “investments in machine learning and AI” are a “big opportunity” to fix the problem.
  • (00:56:12) Responding to an audience member, Walker says Google must ensure the rise of populism doesn’t turn into “a world war or something catastrophic … and instead is a blip, a hiccup.”
  • (00:58:22) Brin compares Trump voters to supporters of fascism and communism, linking the former movement to “boredom,” which Brin previously linked to Trump voters. “It sort of sneaks up sometimes, really bad things” says Brin.
  • (01:01:15) A Google employee states: “speaking to white men, there’s an opportunity for you right now to understand your privilege” and urges employees to “go through the bias-busting training, read about privilege, read about the real history of oppression in our country.” He urges employees to “discuss the issues you are passionate about during Thanksgiving dinner and don’t back down and laugh it off when you hear the voice of oppression speak through metaphors.” Every executive on stage – the CEO, CFO, two VPs and the two Co-founders – applaud the employee.
  • (01:01:57) An audience member asks if the executives see “anything positive from this election result.” The audience of Google employees, and the executives on stage, burst into laughter. “Boy, that’s a really tough one right now” says Brin.
 

NoahWatson

Well-Known Member
1 297
3 200
https://www.theverge.com/2018/10/10...r-censorship-freedom-of-speech-research-china
A leaked research presentation put together by employees of Google shows the extent to which the search giant is grappling with decisions around freedom of speech and censorship. The presentation, leaked to Breitbart News this week and published in full by the organization, is titled “The Good Censor,” and it’s a mix of findings and insights based on interviews and contributions from a number of journalists, academics, and cultural critics.
Essentially, the company is asking itself whether it’s possible to protect against the negative aspects of free speech — violent threats, fake news, bots, trolling, propaganda, and election interference, to name just a few — while promoting a platform that gives everyone a voice.
The presentation concludes that tech companies “are performing a balancing act between two incompatible positions,” and that’s the reason why censorship is on the rise as companies like Google, Facebook, and Twitter take more heavy-handed approaches to moderation in response to heightened criticism.
https://www.breitbart.com/tech/2018...sorship-to-appease-authoritarian-governments/
 

MaxStirner

Well-Known Member
2 723
4 693
Wyciekł z googla kolejne maile o tym jak zagrzebać prawicowe outlety do wyborów w 2020. To już któryś, bodaj drugi czy trzeci taki przypadek w ostatnich miesiącach - tym razem szczególnie chodzi o Breitbarta (którego czesto czytam) i DaillyCaller, wspominają jeszcze Drudge Report.
Wszystko jest, czarno na białym, nie da sie już mówić, że to teorie spiskowe
https://dailycaller.com/2018/11/29/google-censorship-conservative-media/
 
OP
OP
kr2y510

kr2y510

konfederata targowicki
12 770
24 700
Autonom.pl -> Microsoft zadba, byś wiedział, kto mówi prawdę

Korporacja Microsoft jest o krok bliżej aby uczynić aplikację NewsGuard integralną częścią swojej przeglądarki Edge dla urządzeń mobilnych. Użytkownicy urządzeń obsługiwanych przez systemy Android i Apple, którzy wcześniej musieli pobierać aplikację będą mieli niebawem możliwość sprawdzenia jednym kliknięciem czy wyświetlana strona zakwalifikowana została jako rozpowszechniająca tzw. „fake news”. Aplikacja jest oczywiście odpowiednio opracowana pod względem politycznym i wskazuje użytkownikowi, które portale „mówią prawdę” a które nie.
Aplikacja wyświetli „zielone światło” dla strony, którą pozytywnie ocenili „wyszkoleni i doświadczeni dziennikarze oraz publicyści”, którzy ocenili „dziennikarskie standardy i transparentność” danych portali pod względem ich wiarygodności.

Pośród pozytywnie zweryfikowanych dostarczycieli „prawdy” znajdziemy takie portale jak Voice of America, CNN, Buzzfeed, The Guardian, New York Times czy Washington Post. Do tych, dla których wyświetla się czerwone światło należą m.in. Russia Today, Sputnik a także Daily Mail czy Wikileaks, która to portal przysporzył rządowi USA oraz prominentnym politykom amerykańskim wielu problemów.

Zintegrowanie aplikacji NewsGuard z przeglądarką Edge oznacza tyle, że dla przeciętnego użytkownika łatwiejszym jest pozwolenie jej na działania niż jej zignorowanie. Jako produkt Microsoftu ma jej gwarancję, podobną do oferowanych zabezpieczeń antywirusowych. Tym sposobem, powiązana z rządowymi agendami USA, korporacja oferuje użytkownikom elektronicznego arbitra, który rozsądzi za nich samych, którym z podawanych informacji ufać a którym nie. Użytkownik nie będzie musiał już sam oceniać co jest informacjami prawdziwymi a co propagandą, aplikacja poda mu na tacy opinię „przeszkolonych i doświadczonych dziennikarzy”, którzy pomagali w jej stworzeniu.

Określanie rzetelności danych mediów opiera się na dziewięciu kryteriach, wśród których znajdują się: nie publikowanie wielokrotnie fałszywych treści, unikanie zwodniczych nagłówków, zbieranie i przedstawianie informacji w sposób odpowiedzialny (cokolwiek to znaczy), odpowiedzialne radzenie sobie z rozróżnianiem faktów od opinii.

Wymienione wyżej media, co do których zastrzeżeń nie ma aplikacja, oczywiście nie angażują się w działalność przeciwko wymienionym kryteriom a przynajmniej o nich nie wiedzą. Tak więc CNN nigdy nie wprowadza w błąd nagłówkami, historie New York Times’a (jak np. wiele kłamliwych artykułów o polskim udziale w tzw. holokauście) są zawsze prawdziwe a The Guardian odpowiedzialnie oddziela fakty od opinii (co mogliśmy zauważyć w relacjach tego medium odnośnie polskiego Marszu Niepodległości).

Aby rozwiać wątpliwości i kontrowersje odnośnie odgórnego oceniania przez korporacje w co czytelnik powinien wierzyć lub nie Microsoft oświadcza, że jest gotowy na „dwustronną komunikację”. Wystawiona Daily Mail „czerwona lampka” została wytłumaczona rzekomymi próbami wielokrotnego kontaktu z jego redakcją, która nie podjęła rozmów na ten temat z samozwańczym ciałem sądowniczym jakim okazała się korporacja Microsoft. Natomiast Russia Today donosi, że szczegółowo odpowiedziała na zapytania Microsoftu i twórców aplikacji.

Kim są ludzie stojący za nową aplikacją Microsoftu? W radzie doradczej programu „Microsoft Defending Democracy”, którego częścią jest NewsGuard są m.in. pierwszy szef Departamentu Bezpieczeństwa Narodowego (Homeland Security), będący jednocześnie twórcą systemu oznaczeń zagrożeń terrorystycznych Tom Ridge, kolejnym jest Michael Hayden, szef CIA za prezydentury George’a W. Busha oraz kilka osób z najbliższego otoczenia prezydentów Clintona i Obamy. Dodatkowo grono to uzupełnia cała lista „doświadczonych dziennikarzy”.

Edge, pozostając bardzo rzadko używaną przeglądarką, nawet wzrost jej popularności o kilka tysięcy procent nie zapewni jej prawdopodobnie miejsca w czołówce rankingu najchętniej wybieranych przeglądarek, nie ogranicza apetytu Microsoftu. Program „Microsoft Defending Democracy”, który deklaruje m.in. walkę z obcymi wpływami podczas wyborów w USA, zapowiada bowiem, że „pragnie służyć miliardom ludzi na świecie, którzy czerpią informacje online”. W ramach tego programu Microsoft planuje aby wszystkie publiczne instytucje na świecie, korzystające z ich oprogramowania, były zmuszone do stosowania owych „filtrów prawdy”. Do tej pory w wielu instytucjach publicznych, szkołach, bibliotekach czy na uczelniach w wielu krajach obowiązują przeróżne systemy blokujące dostęp do niewygodnych treści (w publicznych bibliotekach w Wielkiej Brytanii nie wyświetlą nam się strony Autonom.pl, Nacjonalista.pl itp.). Nie jest o indywidualne ostrzeżenie dla użytkownika, który na własną odpowiedzialność mógłby chcieć jednak przejrzeć te strony, ale odgórnie narzucony zakaz dostępu do nich.

W planach programu „obrony demokracji” autorstwa Microsoftu znajduje się także swoisty szantaż. Mianowicie współpracę z reklamodawcami w celu „zapewnienia wiarygodności reklamodawcy poprzez nie publikowanie reklam na stronach z niewiarygodnymi informacjami”, co oznacza ni mniej ni więcej tylko brak dochodów jako karę za umieszczanie reklam na stronach uznanych przez „grono eksperckie” za niewygodne.

Działania takie znacząco ograniczają wolność debaty publicznej, które sankcjonowane będzie licencyjnymi prawami dostawcy oprogramowania, za którym stoją określone grupy poglądowe i polityczne. Gwałtowna i bezpośrednia ingerencja tego typu w portale społecznościowe takie jak Facebook mogła by wzbudzić niepożądany efekt, jednak propozycja dostawcy oprogramowania wynikająca z „troski o demokrację i prawdę”, która dla publicznych instytucji była by „propozycją nie do odrzucenia”, budzi zrozumiałem obawy przed działalnością powiązanych z wielką polityką korporacji.​
 

Slavic

Wolnorynkowiec
577
1 688
YouTube nie będzie proponował filmów z teoriami spiskowymi

YouTube nieco "schowa" filmy, których autorzy promują teorie spiskowe. Chociaż nie łamały regulaminu serwisu, to niekorzystnie wpływały na debatę publiczną.

Jak zapowiedział YouTube, w serwisie rzadziej polecane będą filmy z teoriami spiskowymi. Mowa tu o takich treściach jak promowanie teorii o płaskiej Ziemi czy doszukiwanie się drugiego dna w zamachach terrorystycznych, jak w przypadku World Trade Center. Mówiąc w skrócie, YouTube - a konkretnie algorytm - nie będzie promował materiałów opierających się na nieprawdziwych informacjach, szalonych teoriach czy spiskach.

YouTube nie może kasować takich filmów, bo w żaden sposób nie łamią one regulaminu serwisu. Nie da się jednak ukryć, że mają szkodliwy wpływ na użytkowników. Grzegorz Burtan na łamach WP Tech wyjaśniał, dlaczego:


"Sztuczna inteligencja musi zasugerować takie treści, które będą chętniej oglądane przez danego widza. W efekcie osoba, która ma wątpliwości co do szczepionek, najpierw obejrzy jedno wideo, a potem kolejne i kolejne. Po 30 zapisze się do stowarzyszenia antyszczepionkowego STOP NOP. To oczywiście wielki sukces dla portalu, bo pod rząd obejrzano kilka długich wideo. Ale dla debaty publicznej to porażka".


Na dodatek promowanie takich filmów groziło radykalizacją treści, o czym pisała felietonistka "New York Times":

"Wideo o wegetarianizmie prowadziło do wideo o weganizmie. Te o uprawianiu joggingu - do tego, jak przebiec ultramaraton. Wychodzi na to, że nigdy nie jesteś dostatecznie "hardkorowy" dla YouTube'a i jego algorytmów. Dlatego ciągle promowane są treści, które podbijają stawki. Dodaj do tego miliardy użytkowników, a YouTube może być jednym z najpotężniejszych narzędzi do radykalizacji mas w XXI wieku".

Pozostaje mieć nadzieję, że algorytmy dobrze będą oceniać filmy - a zdarzało im się popełniać błędy. I nie zostaną schowane materiały autorów, którzy np. walczą z popularnymi, acz nieprawdziwymi teoriami.

YouTube dodaje, że filmów, które zaliczają się do grupy "mniej promowanych", w całym serwisie jest zaledwie 1 proc. Na dodatek nadal będą pojawiać się w wynikach wyszukiwania. Trzeba przyznać, że gigant wybrał bezpieczne dla siebie rozwiązanie. Nie kasuje filmów, a jednocześnie przestaje je promować.

https://tech.wp.pl/youtube-nie-bedzie-proponowal-filmow-z-teoriami-spiskowymi-6343418840503937a

Czyli po prostu każdy film niewygodny dla globalnego reżimu będzie usuwany pod pretekstem "walki z teoriami spiskowymi" :D . Orwell coraz bliżej i mocniej.
 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 726
Youtube zamierza ograniczyć możliwość okazywania dezaprobaty.

YouTube szuka sposobu na ataki negatywnymi ocenami. Rozpatruje wyłączenie „łapki w dół”

02.02.2019 06:00
Piotr Urbaniak
@gtxxor

YouTube ma dość zorganizowanych grup atakujących twórców poprzez negatywne oceny. Nazywa je antypatycznym motłochem (ang. dislike mobs) i szuka rozwiązania problemu.

W sprawie wypowiedział się Tom Leung, dyrektor zarządzania projektem YouTube, który zwrócił uwagę na ogromną skalę tego procederu. Leung wskazuje, że oceny wielu materiałów są sztucznie zaniżone właśnie przez zorganizowane grupy, motywowane nie niską jakością treści, ale na przykład chwilową nagonką na danego twórcę lub firmę.

Jak twierdzi dyrektor, jest to działanie bardzo szkodliwe dla społeczności, gdyż stosunek like'ów do dislike'ów jest jednym z parametrów branych pod uwagę przy rekomendacjach treści. W efekcie tego grupa szkodników może poważnie zaszkodzić pozycji kanału.

Możliwy koniec „łapki w dół”
Zespół rozwoju produktu myśli, jak temu zaradzić. Na tę chwilę padły trzy propozycje, z czego jedna opiera się na mechanizmie już dostępnym na platformie, a mianowicie możliwości ukrycia ocen. Leung zauważa jednak, że to nie rozwiązuje problemu spadających notowań materiału, a co najwyżej hamuje nieco efekt kuli śnieżnej; hejterzy nie napędzają się wzajemnie.

Stąd dwa kolejne pomysły. Pierwszy z nich to wymuszenie na użytkowniku uzasadnienia każdej negatywnej oceny, aby twórca miał świadomość, za co tak naprawdę jest krytykowany. Drugi zakłada zaś całkowite wyłączenie łapek w dół i pozostawienia wyłącznie ocen pozytywnych.

Ponownie, Leung w obydwu tych koncepcjach widzi istotne wady. Konieczność uzasadnienia oceny żadnego szkodnika nie zatrzyma, a jedynie utrudni mu życie. Natomiast porzucenie negatywnych ocen, zdaniem dyrektora, przeczy idei YouTube'a, który u genezy był platformą budowaną w oparciu o opinie społeczności. I tak źle, i tak niedobrze – można by rzec.

Zmiany nieszczególnie pożądane
Summa summarum bezkompromisowego rozwiązania póki co nie wymyślono, więc zespół tkwi w impasie, głośno zastanawiając się nad możliwymi ścieżkami.

Co ciekawe, interesującą ideę podrzucili Leungowi, w komentarzach, użytkownicy; chcą możliwości dokonania oceny dopiero po obejrzeniu przynajmniej 25 - 50 proc. wideo. Ale to także nie spodobało się każdemu. Przeciwnicy tej opcji zauważyli, że w przypadku długich, kilkugodzinnych materiałów całkowita liczba ocen drastycznie spadnie.

Patrząc po komentarzach pod monologiem Leunga, zmiany w systemie oceniania są nieszczególnie pożądane. Autorzy zdają się obawiać, że wraz z ilością krytyki spadnie im liczba polubień. Fakt faktem obok antypatycznego motłochu istnieją też fanatyczni zwolennicy, którzy bez głębszej analizy serwują na potegę like'i. A kiedy YT weźmie się za rzetelność ocen, ucierpieć mogą jedni i drudzy.
 

tolep

five miles out
8 550
15 438
Czyli po prostu każdy film niewygodny dla globalnego reżimu będzie usuwany pod pretekstem

Czyli nie. Prywatna firma YouTube będzie nadal publicznie hostowała każdy film zgodny z jej regulaminem, ale nie będzie promowała filmów, których treści nie lubi.
 
Do góry Bottom