Ciekawostki naukowe i techniczne

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 737
Na razie uczę się cieszyć drobnymi przyjemnościami i wykonywanymi czynnościami rutynowymi, które zawsze mnie irytowały brakiem swojej epickości.

Jest lepiej, zobaczymy co będzie później.
 

tolep

five miles out
8 556
15 443
o_O

http://naukawpolsce.pap.pl/aktualnosci/news,414941,nie-ma-bardzo-krotkie-zycie.html
"Nie" ma bardzo krótkie życie
11.07.2017 SPOŁECZEŃSTWO


Fot. Fotolia

Nie przyjąłem łapówki, nie przekroczyłem prędkości, nie znam tej osoby. Takie wyjaśnienia mogą wywołać efekt wręcz odwrotny do zamierzonego. Badania pokazały, że już po tygodniu zapominamy o partykule „nie”, przeinaczając pierwotny przekaz.

Występowanie takiej tendencji w serii eksperymentów zaobserwowali naukowcy Uniwersytetu Jagiellońskiego. „Sam efekt nas tak bardzo nie zdziwił, spodziewaliśmy się go. Zaskoczyła nas zaś jego siła” – mówi jeden z autorów badania dr hab. Romuald Polczyk z Instytutu Psychologii Uniwersytetu Jagiellońskiego.


Jak informuje Instytut Psychologii UJ, w pierwszym badaniu grupie 292 badanych odczytano opis domu, w którym niektóre elementy wyposażenia występowały, obecność innych zaś negowano. Badani słyszeli więc zdania takie jak: „W pokoju jest dywan”; „W domu nie ma lodówki”. Następnie to, co zapamiętali sprawdzono: natychmiast po zakończeniu czytania opisu oraz po tygodniu. Analogiczne badanie, ale dostosowane do możliwości poznawczych dzieci, naukowcy przeprowadzili na sześciolatkach. W innym sprawdzali z kolei, w jaki sposób badani zapamiętali opisywane w eksperymencie zachowanie kierowcy, łamiącego zasady ruchu drogowego. Wszystkie eksperymenty dały ten sam efekt.



„Badania pokazały, że po jakimś czasie ginie partykuła +nie+, a badani zapominają o trybie przeczącym. Jednej z grup przeczytano np., że w domu jest lodówka; drugiej zaś, że lodówki w domu nie ma. Po tygodniu grupa, która słyszała, że lodówki nie ma twierdziła, że była ona w mieszkaniu niemal równie często jak grupa, która rzeczywiście słyszała, że lodówka tam jest” – wyjaśnia dr hab. Romuald Polczyk.



Zaznacza, że efekt ten nie występuje jednak od razu. W badaniach pojawił się on już po tygodniu u osób dorosłych i po jednym dniu u dzieci.



„Negacja to ważna część naszej codziennej komunikacji. Dlatego sądzę, że zasada ta może odnosić się właściwie do całego życia społecznego. Zważywszy jak często musimy czemuś przeczyć, coś negować, wyjaśniać, to zjawisko takie może mieć niebezpieczne konsekwencje. Zwłaszcza, że jego efekt jest dość mocny” – podkreśla badacz.



Zjawisko może mieć znaczenie np. w psychologii naocznych świadków zdarzeń. Świadek – jak tłumaczy dr Polczyk - może bowiem usłyszeć od innego świadka, czy w środkach masowego przekazu, że podejrzany czegoś nie zrobił. Po upływie kilku tygodni czy miesięcy i w jego pamięci może zapisać się zupełnie odwrotna informacja. Opisywany efekt może mieć też niemałe znaczenie dla życia publicznego czy deklaracji wygłaszanych przez polityków. Wiele razy słyszymy przecież zapewnienia, o tym, że nie zrobili czegoś, co im się zarzuca.



Badanie naukowców UJ jest jednym z wielu pokazujących działanie efektu negacji. W psychologii badany jest on pod różnym kątem. „Jest cała seria badań, które pokazują, że negacja działa odwrotnie, niż byśmy tego oczekiwali. Jeśli powiemy komuś: nie myśl teraz o różowym słoniu, to inne badania pokazały, że powstaje wręcz przymus, aby o tym słoniu pomyśleć” – mówi dr hab. Polczyk.



Z negacją trzeba więc „obchodzić się” umiejętnie i ostrożnie. „Gdy zastanowimy się ile razy mówimy innym, zwłaszcza dzieciom: nie rób tego czy tamtego, to w świetle tego rodzaju badań możemy się liczyć ze skutkami wręcz odwrotnymi” - zauważa badacz.



Co powoduje, że partykuła „nie” wywołuje tak silny, odwrotny do zamierzonego efekt? Czy sama jej obecność, czy raczej fakt negacji. Tego na razie nie wiadomo do końca. W eksperymentach badaczy UJ używano słowa „nie”. Jednak, jaki byłby rezultat badania, gdyby przeczenie indukowano w inny sposób? Tego naukowcy z UJ chcą dowiedzieć się w kolejnych zaplanowanych eksperymentach.



„Dotychczasowe nasze badania jedynie demonstrowały ten efekt. Natomiast ustalenie, z jakich powodów tak się dzieje i jaki jest mechanizm tego zjawiska, będzie wymagało kolejnych, osobnych badań” – mówi dr Polczyk.



Badanie opublikowało pismo PLOS One. Pierwszym autorem publikacji jest dr hab. Józef Maciuszek z Instytutu Psychologii Stosowanej Uniwersytetu Jagiellońskiego.



PAP - Nauka w Polsce
 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 737
Dlatego ja niczego nie neguję, bo to się nie opłaca. Lepiej być afirmatorem z silną pozytywną wizją niż debunkującym hejterem, o którym jutro świat zapomni.

Trąbski jednak na przekór Kelthuzowi mógłby obronić w ten sposób swoją pozycję za non-jugdementalizmem. :) Z tego co pamiętam, tak brzmiał jeden z jego argumentów, ale nie potrafił go uzasadnić naukowo. A tu proszę...
 

kompowiec

freetard
2 568
2 622
Z negacją trzeba więc „obchodzić się” umiejętnie i ostrożnie. „Gdy zastanowimy się ile razy mówimy innym, zwłaszcza dzieciom: nie rób tego czy tamtego, to w świetle tego rodzaju badań możemy się liczyć ze skutkami wręcz odwrotnymi” - zauważa badacz.
Od tego momentu doznałem Deja-vu. Stare jak świat, bardzo prosty przykład: NIE PATRZ W DÓŁ!
 

tolep

five miles out
8 556
15 443
Można od razu do Wikipedii żeby sprawdzić co to takiego Prawo Zipfa, ale można też dać się zaskoczyć już w pierwszych 3 minutach filmiku, nie dowierzając i czekając do końca, żeby się jednak dowiedzieć, że...

 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 737
Spuść z oczu sztuczne inteligencje, a wymyślą własne, skuteczniejsze języki
21.07.2017 15:19
Sztuczne inteligencje raz po raz przypominają nam, że maszynowy rozum może myśleć w osobliwy sposób. Jakiś czas temu mogliśmy zobaczyć, jak według uczącej się rozpoznawać obrazy google’owej sieci neuronowej wyglądają sztangielki. Zagadki szachowe wymyślane przez system DSNS zaskakują przemyślnością. Nawet odkąd sformalizowano teorię humoru, opowiadane przez AI żarty zaczynają być śmieszne. To wszystko jednak pozostaje w zrozumiałych dla człowieka ramach. A gdyby AI nauczyło się mówić – i to w swoim własnym języku?

Badacze z laboratoriów sztucznej inteligencji Facebooka (FAIR) przedstawili ostatnio ciekawe wyniki prac nad oprogramowaniem negocjacyjnym, które niczym Donald Trump, miało uzyskiwać możliwe najlepsze warunki umowy. Wyniki te osiągnięto przypadkiem, właściwie przez niedopatrzenie. Agenty negocjujące między sobą korzystały na początku ze standardowego języka angielskiego. Co jednak jeśli angielski wcale nie jest najefektywniejszym sposobem mówienia?

Najlepiej uczyć się od siebie
Generatywne sieci z przeciwnikiem (Generative Adversarial Network, GAN) są ostatnio jednym z najpopularniejszych tematów w dziedzinie głębokiego uczenia, otwierają bowiem drogę do samouczących się systemów, które praktycznie nie potrzebują ludzkiego nadzoru. Zazwyczaj sieci neuronowe uczą nowych rzeczy (np. rozpoznawania kotków na zdjęciach) poprzez analizowanie dziesiątek tysięcy zdjęć z kotkami (i innymi zwierzątkami). Jednak aby skorzystać z takiego treningu, ludzie muszą każdemu zdjęciu przygotować podpis.


GAN tymczasem pozwala zarówno zmniejszyć ilość danych potrzebnych do treningu sieci jak i wyeliminować z tego czynnik ludzki. W odniesieniu do powyższego przykładu, trenowane są dwie konkurujące ze sobą sieci: jedna to generator, próbujący stworzyć możliwe realistyczne obrazy kotów. Druga to dyskryminator, analizujący obrazy mające zawierać koty i próbujący ustalić, czy są one prawdziwe czy fałszywe. Obie sieci uczą się od siebie wzajemnie, jedna coraz lepiej wykrywa fałszywe koty, druga coraz lepiej tworzy koty nieodróżnialne od oryginału.

Testowane przez Facebooka sieci tego typu początkowo nie wypadały zbyt dobrze – do czasu wymyślenia bardziej złożonej struktury, głębokich splotowych generatywnych sieci z przeciwnikiem (Deep Convolutional Generative Adversarial Network, DCGAN). Tutaj mamy do czynienia z połączonymi ze sobą warstwami, zawierającymi specyficzne algorytmy, odtwarzające hierarchię poznawczą: w wypadku rozpoznawania zdjęć to kolejne rozpoznawanie pikseli i krawędzi, następnie poszczególnych elementów obiektu, wreszcie obiektów i całych scen.

Naukowcy z FAIR zauważyli, że takie złożone sieci zyskują lepsze „zrozumienie” tego co się dzieje przy przechodzeniu od warstwy do warstwy, zyskując możliwości przewidywania następnych etapów: pozwoliło to stworzyć AI, które np. generowały realistyczne dopełnienia krótkich filmów na podstawie przedstawionych scen. W odniesieniu do czatbotów – systemów dialogowych – otworzyło to zaś drogę do wnioskowania o tym, co mogłoby zostać powiedziane w przyszłości w rozmowie z użytkownikiem, a więc uzyskanie przekonań co do tego, co rozmówca myśli lub chce.

Gdzie kończy się maszynowa wyobraźnia?
Maszynowy zdrowy rozsądek, pozostawiony sobie samemu może przynieść jednak bardzo dziwne efekty. Wspomniane na początku agenty systemu negocjacyjnego nie były na żadnym etapie nagradzane za trzymanie się języka angielskiego – poszukiwano jedynie uzyskania najlepszych możliwych warunków umowy. Z czasem agenty więc zaczęły odpływać, w rozmowach między sobą używając języka, który coraz mniej przypominał angielski, wymyślając sobie nowe słowa i gramatyki. Transkrypcję takiej rozmowy między botami Alice i Bobem można zobaczyć na poniższym zrzucie ekranu.


Pomimo skuteczności takich rozwiązań, nie ma co się jednak spodziewać, że w komercyjnych produktach producenci systemów sztucznej inteligencji pozwolą sobie, by tak odlecieć. Maszyny, które rozmawiają ze sobą nawzajem w kompletnie obcych dla nas językach czynią sprawę komunikacji człowieka z AI, obecnie najważniejszej, jeszcze bardziej kłopotliwą. Eksperci już dziś przyznają, że nie potrafią powiedzieć, jak myślą złożone AI – coraz częściej musimy po prostu zaufać sztucznej inteligencji, nie rozumiejąc, jak dochodzi ona do swoich wniosków. Jeśli język tych myśli przestanie przypominać języki ludzkie, maszynowy rozum stanie się dla nas jeszcze bardziej obcy – a przecież te wszystkie inteligentne cyfrowe asystenty, takie jak Siri, miałyby być jak nam najbliższe.

Poza światem komercyjnych produktów – np. w zastosowaniach wojskowych, czy specjalistycznym oprogramowaniu do handlu na giełdach – sytuacja może być jednak zgoła inna. Tam gdzie efektywność jest najważniejsza, AI mogą zacząć wykorzystywać języki o bardzo wysokiej gęstości informacji, w której rozpoznane przez maszyny skomplikowane znaczenia zostaną zakodowane do prostych symboli. Ludzkie języki unikają raczej tego typu semantycznej kompresji: skomplikowane myśli lepiej wyrazić jednym zdaniem, nie mamy bowiem dość mocy obliczeniowej, by tak złożone symbole szybko przetwarzać. Dla maszyn takie ograniczenia są znacznie łatwiejsze do przekroczenia.
 

kompowiec

freetard
2 568
2 622
Eksperci już dziś przyznają, że nie potrafią powiedzieć, jak myślą złożone AI – coraz częściej musimy po prostu zaufać sztucznej inteligencji, nie rozumiejąc, jak dochodzi ona do swoich wniosków.
Skoro są to jeszcze dalej programy bez samoświadomości to można to bez problemu sprawdzić, tylko komuś się po prostu nie chce. Po za tym wnioskując po samym screenshocie rozmowa przypomina po prostu azjatyckie języki.

AI mogą zacząć wykorzystywać języki o bardzo wysokiej gęstości informacji, w której rozpoznane przez maszyny skomplikowane znaczenia zostaną zakodowane do prostych symboli. Ludzkie języki unikają raczej tego typu semantycznej kompresji: skomplikowane myśli lepiej wyrazić jednym zdaniem, nie mamy bowiem dość mocy obliczeniowej, by tak złożone symbole szybko przetwarzać.
Bardziej inteligetni/oczytani ludzie potrafią wiele rzeczy wyrazić pojedynczymi słowami, one istnieją już w naszym języku... inna sprawa że one mają wieloznaczne znaczenie.

EDIT:
Po fakcie doszła do mnie jeszcze inna myśl - podobno ADHDowce myślą 2x szybciej od normalnych ludzi i sam o tym niejednokrotnie się o tym przekonywałem że stosuje kompresję jak ww. AI - kończy się nam tym, że ludzie Cię pomijają bo dla nich niemożliwa jest taka synteza myślowa, dopiero jak po kilku dniach ktoś inny powie im w bardziej zrozumiały sposób.... jednakże trudno mieć o to do kogokolwiek pretensje.
 
Ostatnia edycja:

tolep

five miles out
8 556
15 443
W jednym czy dwóch wątkach była onegdaj podnieta aparatem Sony a7S

No to teraz

Japończycy umieścili aparat Sony a7S II poza ISS. Zobaczcie piękny film
14 godzin temuFilip GeekowskiKomentarze (2)
imsofnujapojaxauiss2age27-589cx205.jpg

Japońska Agencja Kosmiczna (JAXA) dostarczyła na pokład Międzynarodowej Stacji Kosmicznej (ISS) najnowszy aparat Sony a7S II, który może pochwalić się wykonywaniem świetnej jakości zdjęć i kręceniem filmów w kiepskich warunkach oświetleniowych.

Astronauci mieli możliwość sprawdzenia tego jednego z najlepszych na świecie bezlusterkowców w praktyce, nagrywając nim filmy w jakości 4K, na którym widać naszą piękną planetę w nocy.

cd.

http://www.geekweek.pl/aktualnosci/...at-sony-a7s-ii-poza-iss-zobaczcie-piekny-film
 

rawpra

Well-Known Member
2 741
5 407
Makijaż korzystnie wpływa na zdolności poznawcze

n-lusterko-65ea6569c4be7e6a706b8a1e96ce6a43.jpg


Umalowane kobiety osiągają w testach lepsze wyniki niż studentki bez makijażu. Amerykańscy i włoscy naukowcy badali efekt szminki, czyli zjawisko psychologiczne, które polega na zwiększeniu samooceny przez kosmetyki.

Autorzy publikacji z pisma Cogent Psychology wyjaśniają, że nałożenie kosmetyków sprawia, że ludzie czują się bardziej atrakcyjni, co z kolei przekłada się na wyższą samoocenę. Mało kto zajmował się jednak kwestią oddziaływania wzrostu samooceny (a konkretnie związanych z tym pozytywnych emocji) na zdolności i osiągnięcia poznawcze. Wiedząc, że liczne wcześniejsze badania wykazywały, że pozytywne emocje poprawiają osiągnięcia akademickie, Rocco Palumbo ze Szkoły Medycznej Uniwersytetu Harvarda i współpracownicy z Uniwersytetu w Chieti zaprojektowali eksperyment. Studentki pierwszego roku (186) podzielono na 3 równoliczne grupy, z których jedna nakładała makijaż, druga słuchała pozytywnego fragmentu muzyki, a trzecia dostawała kolorowankę ludzkiej twarzy. Wszystkie panie miały potem rozwiązać test wielokrotnego wyboru, dotyczący rozdziału z podręcznika psychologii ogólnej. Generalnie hipoteza była taka, że nakładanie makijażu doprowadzi do większego wzrostu pozytywnych uczuć, przez co 1. grupa osiągnie najlepsze rezultaty w teście.

W eksperymencie uwzględniono wyłącznie dziewczyny, które na egzaminie z psychologii zdobyły konkretną liczbę punktów (od 25 do 28 na maksymalnie 30). Ochotniczki miały określić swoją samoocenę za pomocą podskali pewnego kwestionariusza. Pytano je także, jak często się malują (0-7 dni w tygodniu). Oprócz tego kobiety powtarzały ciągi cyfr wprost i wspak, przechodziły też test fluencji słownej. W ten sposób można było dopasować uczestniczki eksperymentu pod względem samooceny fizycznej, zwyczajów makijażowych, zdolności poznawczych i wiedzy nt. psychologii ogólnej. Pod koniec pierwszego dnia dziewczyny wysłano do domu i poproszony, by nazajutrz przyszły bez makijażu. Drugiego dnia studentki były badane pojedynczo w cichym pomieszczeniu. Powiedziano im, że studium dotyczy uczenia i pamięci. Na początku panie miały ocenić na skali od 1 do 7 swój nastrój (1 - bardzo zły, 7 - bardzo dobry) i poczucie atrakcyjności (1 - jestem ohydna, 7 - jestem absolutnie cudowna). Następnie dziewczynom polecono, by przez pół godziny czytały nieznany im rozdział z podręcznika do psychologii ogólnej. Wybrano właśnie psychologię, bo to 1. egzamin na studiach, a naukowcy chcieli wyeliminować wpływ różnic w stopniu wyuczenia materiału. Po upływie wyznaczonego czasu miał nastąpić symulowany egzamin - test wielokrotnego wyboru. Przedtem jednak dziewczynom z grupy makijażowej dano do dyspozycji wypchaną kosmetyczkę z produktami do malowania i lustro (miały się pomalować jak zwykle przed wyjściem). Grupie z kolorowanką polecono, by zarys twarzy pomalować tak, jak gdyby nakładało się makijaż. Panie z grupy muzycznej sadzano zaś przy stole, na którym leżały kolorowe cymbałki. Przez słuchawki odtwarzano im fragment Eine Kleine Nacht MusikMozarta. Podczas słuchania należało próbować powtarzać dźwięki na cymbałkach. Po 15 min wszystkie grupy miały ponownie ocenić nastrój i atrakcyjność. Później przychodził czas na odpowiedzenie na 30 pytań wielokrotnego wyboru.

Okazało się, że liczba zdobytych punktów była w 1. grupie znacząco wyższa. Wysłuchanie pozytywnej muzyki także znacząco poprawiało osiągnięcia, ale nie w takim stopniu, jak nałożenie makijażu.

http://kopalniawiedzy.pl/makijaz-ef...iecia-zdolnosci-poznawcze-Rocco-Palumbo,26800
 

tolep

five miles out
8 556
15 443
Facebook wyłącza swoje AI, bo nagle zaczęło zagrażać człowiekowi
godzinę temuFilip GeekowskiKomentarze (2)
imaaispeiehajfifaioo45ge4wq-589cx205.jpg

Elon Musk, szef Tesli i SpaceX, ostrzegł świat przed sztuczną inteligencją i poprosił polityków o jak najszybsze przygotowanie odpowiedniego prawa regulującego rozwój takich technologii, aby nie wymknęły się nam one spod kontroli. Według Muska, zagrożenie jest poważne i jeśli nic z tym nie zrobimy, w pewnym momencie może być już dla nas za późno, a efektem może być koniec naszej cywilizacji.

Jego słowa skrytykował kilka dni później Mark Zuckerberg, szef Facebooka, którego inżynierowie bezustannie prowadzą prace nad technologiami sztucznej inteligencji. Zuck powiedział: "Mam bardzo stanowcze zdanie na ten temat. Jestem optymistą. Myślę, że ludzie, którzy są pesymistami, próbują jedynie powtarzać swoje czarne scenariusze. W ogóle nie potrafię tego zrozumieć. To naprawdę negatywne i myślę, że w pewien sposób bardzo nieodpowiedzialne.".

Musk wówczas napisał na Twitterze, że rozmawiał na ten temat z Markiem i stwierdza, że pojmowanie przez niego tego tematu (SI) jest ograniczone. I miał rację (zobaczcie tutaj). Teraz dowiadujemy się bowiem, że stworzony przez Facebooka algorytm sztucznej inteligencji wymknął się programistom spod kontroli, stworzył swój własny język i zaczął się nim posługiwać, aby nie być przez nikogo kontrolowany.

Początkowo boty SI używały języka angielskiego, aby się ze sobą porozumiewać, jednak później stworzyły nowy język, zrozumiały tylko dla systemów sztucznej inteligencji, co było niezgodne z celem, dla którego powstały.

Scena z filmu Terminator: Ocalenie. Fot. Warner Bros.

Jedna z rozmów pomiędzy botami o imionach Bob i Alice wyglądała tak: Bob: "I can can I I everything else". Alice: "Balls have zero to me to me to me to me to me to me to me to me to".

Dlatego zespół Facebook AI Research Lab (FAIR) musiał natychmiast wyłączyć systemy sztucznej inteligencji i zmusić boty do rozmowy w języku angielskim. Całe wydarzenie nie było ewenementem. Już kilka razy zdarzyło się, również u innych zespołów, że boty tworzyły swój język, w ogóle niezrozumiały dla ludzi, z pomocą którego świetnie się ze sobą komunikowały.

Inżynierowie natychmiast likwidowali takie systemy, gdyż zwyczajnie nie wiedzieli, do czego może doprowadzić ich rozwój. Niezwykły jest w tym wszystkim fakt, że boty, w czasie rozmów ze sobą, stały się wyśmienitymi negocjatorami. Potrafiły udawać, że interesują się jakąś rzeczą, aby później mieć w jej postaci kartę przetargową w negocjacjach i uzyskać fałszywy kompromis.

Jak więc widzimy, Elon Musk miał rację i powinniśmy zacząć doceniać takie technologie i obchodzić się z nimi w rozważny sposób, bez zbędnego optymizmu i zachwytu, ponieważ niebawem maszyny zaczną dogadywać się za naszymi plecami, co będzie dla nas opłakane w skutkach.

Źródło: DigitalJournal / Fot. Twitter/Pixabay/Warner Bros
 
Do góry Bottom