- TECHNOFOBIA
- Posts
- Google sprawia, że głupiejemy | TECHNOFOBIA | Newsletter Artura Kurasinskiego
Google sprawia, że głupiejemy | TECHNOFOBIA | Newsletter Artura Kurasinskiego
Google w ostatnim czasie znalazło się w ogniu krytyki. Po dodaniu AI jako narzędzia wspomagającego, jakość odpowiedzi od najpopularniejszej wyszukiwarki pogorszyła się jeszcze bardziej.
Nic jednak nie wskazuje na to, by big tech miał zrezygnować z jego wsparcia. Firma ogłosiła niedawno ogromną inwestycję w wysokości ponad 100 miliardów dolarów w swój program rozwoju sztucznej inteligencji.
Ponieważ polegamy na Google jako naszym głównym źródle zbiorowej wiedzy, rosną obawy dotyczące o jego potencjalnego wpływu na nasze zdolności poznawcze.
Chociaż często myślimy o wyszukiwarkach jako o nowoczesnym wynalazku, ich koncepcyjne korzenie sięgają znacznie dalej – aż do XIV wieku, kiedy Ramon Llull, filozof z Majorki, podczas komponowania ballady dla swojej kochanki podobno doświadczył wizji, która skłoniła go do porzucenia rodziny i zostania misjonarzem.
W pogoni za wiedzą i nawróceniem Llull wkroczył na niekonwencjonalną ścieżkę. Kupił zniewolonego człowieka, który nauczył go arabskiego, a następnie podróżował po Afryce Północnej i Azji Mniejszej, gdzie angażował muzułmańskich uczonych w publiczne debaty. Jednak konfrontacyjne podejście Llulla okazało się nieskuteczne w kształtowaniu przekonań rozmówców.
Llull twierdził, że inna boska inspiracja skłoniła go do stworzenia „Ars Magna”, wczesnego urządzenia analogowego, składającego się z trzech obracających się dysków ozdobionych geometrycznymi kształtami i symbolami.
Urządzenie mogło wygenerować 1680 różnych kombinacji, które – jak twierdził Llull – mogły dostarczyć prawdziwych odpowiedzi na każde pytanie, zwłaszcza te, z którymi borykali się chrześcijanie próbujący nawrócić muzułmanów i żydów.
Ars Magna wymagała wiedzy technicznej, jak i umiejętności interpretacji do działania, spowijając swoją metodologię tajemnicą dla wszystkich poza jej operatorem. Stąd podobieństwo do algorytmów – złożonych systemów, które wpływają na nasze życie, choć pozostają dla nas nieprzejrzyste niczym tzw. czarne skrzynki.
Próba wykorzystania przez Llulla jego wynalazku jako dowodu na logiczną wyższość chrześcijaństwa zakończyła się spektakularnym fiaskiem. W Algierii, zmęczony jego uporczywymi kazaniami tłum, zareagował przemocą.
Choć rysowanie podobieństw między Ars Magna i Google może wydawać się naciągane, warto zauważyć, że kilku naukowców zajmujących się informatyką uważa Llulla za intelektualnego poprzednika. Uważają jego pracę za jedną z najwcześniejszych form inżynierii komputerowej.
POCZĄTKI GOOGLE
W 1998 roku Google rozpoczęło misję przypominającą ambicję Llulla: uporządkować światowe informacje i sprawić, że będą powszechnie dostępne.
Przełomem dla firmy było wprowadzenie algorytmu PageRank, który sortował wyniki wyszukiwania, tworząc hierarchie stron internetowych opartych na hiperłączach. Założenie było proste: jeśli wiele wysokiej jakości stron internetowych łączyło się z twoją witryną, prawdopodobnie zawierała ona wartościowe treści. Co ciekawe, na początku swojej działalności gigant, wart obecnie 2 biliony dolarów, bezskutecznie próbował sprzedać całą firmę za zaledwie 1 milion dolarów.
Pierwszy poważny problem pojawił się, gdy podstawowa funkcja – skuteczne kierowanie użytkowników do innych witryn – nie była zgodna z obecnymi trendami Doliny Krzemowej. Jeden z potencjalnych nabywców zasugerował nawet, że Google powinno dążyć do tego, aby obniżyć skuteczność do 80%, aby utrzymać użytkowników dłużej na stronie.
Od tego czasu Google rozwijało się wykładniczo, głównie poprzez gromadzenie ogromnych ilości danych użytkowników, aby doskonalić algorytmy. Wzrost jednak odbył się kosztem jakości produktu.
Przede wszystkim Google poszedł w reklamę, praktykę, którą jego założyciele początkowo odrzucili. W 2000 uruchomiono AdWords, a do 2023 roku reklamy stanowiły prawie 80% z ponad 300 miliardów dolarów przychodów Google.
Z biegiem czasu coraz bardziej wyrafinowane manipulacje SEO zaczęły wysoko pozycjonować treści o niskiej jakości lub spam. Nawet zanim doszło do spopularyzowania AI, często podnoszono głosy, że jakość wyszukiwania w Google jest po prostu słaba.
Ed Zitron, w swoim podcaście „Better Offline”, sugeruje, że Google może celowo pogarszać wrażenia użytkowników, aby wydłużyć czas spędzany w witrynie, a tym samym zwiększyć przychody z reklam.
Wydaje się, że wprowadzenie funkcji przeglądu AI przez Google tylko zaogniło te problemy. Podobno Google było świadome słabego produktu, a mimo to wprowadziło narzędzie, które jest kiepskie i serwuje śmieciowe, niekompletne informacje.
Google nigdy nie było prawdziwie neutralnym dostawcą informacji. Jak każdy system organizacji wiedzy, niesie ze sobą nieodłączne uprzedzenia. Na przykład PageRank tworzy to, co uczona Safiya Umoja Noble nazywa „mapami autorytetu”, które, choć pozornie obiektywne, często wzmacniają istniejącą dynamikę władzy i wpływy.
Uprzedzenia te mogą objawiać się na różne sposoby. Na przykład korporacja przywiązuje dużą wagę do oficjalnych stron rządowych, takich jak whitehouse.gov, faworyzując witryny, które są z nimi powiązane, lub posiadają do nich odnośniki. Może to potencjalnie wypaczać wyniki wyszukiwania podczas badania tematów krytycznych wobec instytucji rządowych.
Algorytm wyszukiwania Google opiera się na kilku podstawowych założeniach lub „przejściowych fikcjach społecznych”, w tym na przekonaniu, że oficjalne źródła, takie jak Biały Dom, są najbardziej wiarygodne dla informacji o sprawach amerykańskich lub że znane serwisy informacyjne, takie jak The New York Times, są najdokładniejsze. Te założenia pokazują tendencję: big tech priorytetyzuje duże, dobrze połączone strony.
Wraz z rozwojem Google i pozyskiwaniem coraz większej ilości danych, te uprzedzenia stały się jeszcze bardziej wyraźne. Witryny komercyjne,zoptymalizowane pod kątem SEO i główne organizacje informacyjne, zyskały jeszcze większą widoczność w wynikach wyszukiwania.
W połączeniu z rosnącą przewagą linków sponsorowanych użytkownicy coraz częściej muszą przesiewać wiele stron wyników, aby dotrzeć do jakościowych wpisów.
W 2016 roku dziennikarka Carole Cadwalladr odkryła, że najpopularniejszym wynikiem dla zapytania „Czy Holokaust się wydarzył?” była strona zatytułowana „10 powodów, dla których Holokaust się nie wydarzył”.
Google wyraziło smutek, że istnieje organizacja napędzająca nienawiść, dodając, że wynik wyszukiwania był oparty na jego trafności dla użytkowników, a nie na wyborach redakcyjnych firmy.
Dziś na szczęście ten artykuł nie pojawia się już na szczycie wyników. Podobne problemy zaobserwowano w przypadku negowania zmian klimatycznych i skrajnie prawicowych treści pojawiających się na najwyższych pozycjach wyszukiwania dla niektórych zapytań.
Natomiast pozycja Google jako zarządcy wiedzy często kłóci się z jego postrzeganiem siebie jako neutralnego lustra odzwierciedlającego interesy użytkowników. Ta sprzeczność rodzi ważne pytania dotyczące odpowiedzialności wyszukiwarek za selekcjonowanie i prezentowanie informacji, zwłaszcza gdy interesy użytkowników mogą być zgodne ze szkodliwymi lub nieprawdziwymi treściami.
Dochodzimy tu do sedna sprawy: gdy podstawowe aspekty ludzkiego życia – od zdobywania wiedzy po edukację i mieszkalnictwo – są regulowane przez systemy ekonomiczne stawiające na pierwszym miejscu wydajność i zysk, często pojawiają się niezamierzone konsekwencje.
Funkcja autouzupełniania dodatkowo pogłębia problem. Wbrew powszechnemu przekonaniu, nie opiera się wyłącznie na liczbie wyszukiwań, ale na złożonej kombinacji czynników, w tym lokalizacja, popularne zainteresowania i historia użytkownika. Tym samym Google może zrzucić odpowiedzialność za potencjalnie szkodliwe sugestie na użytkowników.
Badania wykazały, że autouzupełnianie może utrwalać uprzedzenia, takie jak tworzenie transfobicznych sugestii dotyczących celebrytów transseksualnych lub genderowych sugestii dla kobiet w sferze zawodowej.
Co więcej, autouzupełnianie może aktywnie kształtować opinie. Badania wskazują, że negatywne sugestie autouzupełniania są częściej klikane niż te pozytywne lub neutralne, a sugestie dotyczące kandydatów politycznych mogą znacząco wpłynąć na niezdecydowanych wyborców.
A FUNKCJA AI?
Cóż, przedstawia informacje tak, jakby były absolutne i obiektywne, nawet jeśli są nieprawidłowe. Użytkownicy teoretycznie mogliby zignorować te fragmenty, jednak lata uwarunkowań nauczyły nas ufać autorytetowi Google. Około 28% użytkowników klika w pierwszy link, który zauważy.
Doszliśmy do paradoksu, w którym oczekuje się, że odpowiedzialność spadnie całkowicie na użytkownika, który ma krytycznie przechodzić przez ekosysytem Google. Upraszczając: Google zdaje sobie sprawę, że podaje nieprawdziwe i śmieciowe informacje, mimo to je wyświetla, prezentując je jako absolutną prawdę, bo pasują one do profilu użytkownika. A to on sam musi ocenić, czy te informacje są prawdziwe.
W czasach, gdy prawda wydaje się coraz bardziej nieuchwytna, „halucynacje” generowane przez sztuczną inteligencję Google znacznie utrudniają poszukiwanie obiektywnej wiedzy.
Decyzja Google o debiucie funkcji przeglądu AI, pomimo jej oczywistych wad to kolejny przykład przekładania zysków nad korzyści dla użytkownika.
Wirtualny monopol firmy na wyszukiwanie, osiągnięty dzięki agresywnym praktykom biznesowym, takim jak kupowanie konkurentów i zawieranie umów na wyłączność z dostawcami usług mobilnych, oznacza, że użytkownicy mają niewiele alternatyw.
W rezultacie ludzie z różnych środowisk – studenci, profesjonaliści i ogół społeczeństwa – coraz częściej polegają na Google jako głównym źródle wiedzy. A w efekcie odchodzimy całkowicie od tradycyjnych metod jej pozyskiwania.
Ewolucja i obecny stan Google rodzą kluczowe pytania o naturę wiedzy w erze cyfrowej, odpowiedzialność gigantów technologicznych za zarządzanie informacjami oraz potencjalne konsekwencje dopuszczenia jednego podmiotu na znaczący wpływ na nasze postrzeganie świata i sposób, w jaki wchodzimy z nim w interakcje.
Przez lata bezdyskusyjnie akceptowaliśmy najlepsze sugestie Google, wykorzystując je do podejmowania kluczowych decyzji dotyczących naszej kariery, zdrowia i rodzicielstwa.
Wujek Google wydaje się być skłonny do podawania błędnych informacji, o ile tylko może zarabiać na naszej uwadze. Jaskrawym tego przykładem było to, że ich AI pokazał sprzeczne statystyki dotyczące ich udziału w rynku, twierdząc, że wyższy odsetek był w rzeczywistości spadkiem w stosunku do poprzedniego roku.
Już w 2012 roku krytycy ostrzegali, że pozwalamy Google określać, co jest ważne, istotne i prawdziwe w sieci i w realu. Oddaliśmy kontrolę nad procesami, które nadają sens naszemu ekosystemowi informacyjnemu.
Ponadto badania wykazały, że nasze poleganie na Google zmienia sposób, w jaki zapamiętujemy informacje. Coraz bardziej jesteśmy skłonni przechowywać pamięć „online” niż w naszej własnej pamięci, wiedząc, że zawsze możemy do niej szybko wrócić.
Metody udostępniania informacji przez Google kształtują również naszą zbiorową pamięć o przeszłości. Istnieją obawy, że część z tych 10% młodych Amerykanów, którzy albo nie wierzą, że Holokaust miał miejsce, albo nie są tego pewni, mogą być pod wpływem wyników wyszukiwania Google.
Dominacja jednej firmy w ekosystemie wyszukiwarek oznacza, że jeśli nie jesteś szczególnie obeznany z Internetem, musisz radzić sobie z potencjalnie niedokładnymi informacjami. A to właśnie osoby niezaznajomione z technologiami cyfrowymi najbardziej potrzebują wiarygodnych źródeł informacji.
Big Techy nie biorą odpowiedzialności za swoje działania, a my jako społeczeństwo, stajemy się podatni na kaprysy algorytmów. Należy pamiętać, że kontrola nad rozpowszechnianiem informacji jest równoznaczna z kontrolą nad samą wiedzą, a to niezwykle potężna siła.
Maciej Marek
10 PAŹDZIERNIKA W ROTUNDZIE ORGANIZUJĘ NOWY CYKL SPOTKAŃ POŚWIĘCONY KWESTIOM M.IN.: GENAI. CHCESZ WPAŚĆ?...👇️
Raz w miesiącu w pięknym budynku Rotundy (w centrum Warszawy) będziemy (ja i Filip Sobiecki) organizowali The Foundation.
Czym jest The Foundation?
Naszym celem jest integracja społeczności specjalistów związanych z deep-tech’em wokół szeroko rozumianej tematyki AI /ML nastawionych na rozwiązywanie realnych problemów pozwalających przyspieszyć innowacje w Europie i zwiększyć polską niezależność technologiczną.
Uff, ambitnie, co nie? :)
Zależy nam na "doerach" i osobach, które REALNIE wdrażają, projektują, zarządzają projektami Deep Tech. Pod tym kątem będzie szukali i zapraszali mówczynie i mówców oraz gości (formuła: invitation only czyli jasno mówimy, że będziemy analizowali i zapraszali wybrane osoby).
Zapraszam do zgłaszania się jako (mówcy / sponsorzy) do wspierania naszego cyklu spotkań The Foundation bo potrzebujemy specjalistek i specjalistów którzy podzielą się swoją wiedzą, sponsorów, które zasponsorują jedzenie i picie dla 100 osób.
Jeśli chcesz pomóc / masz pytania / sugestie to napisz do mnie na prv albo na maila:
[email protected]
Ważne jest abyście po części oficjalnej mieli możliwość swobodnego pogadania ze sobą dlatego tak bardzo się cieszymy, że dzięki PKO Bank Polski ugościmy Was w Rotundzie (a w razie czego skoczyć gdzieś obok i kontynuować do świtu rozmowę ;)
Kiedy pierwsze spotkanie? 10 października godzina 18:30
Wstęp: bezpłatny
Więcej informacji i formularz zapisu znajdziesz tutaj
📰NEWSY WARTE TWOJEJ UWAGI
Pavel Durov, twórca Telegrama, stanowczo broni swojej platformy. Twierdzi, że innowatorzy nie powinni ponosić osobistej odpowiedzialności za potencjalne nadużycia swoich narzędzi. Przyznaje, że początkowe trudności ułatwiły przestępcom wykorzystywanie Telegrama, ale zapewnia o planach znacznej poprawy bezpieczeństwa. Mimo aresztowania przez francuskie władze, Durov podkreśla, że Telegram ma oficjalnych przedstawicieli w UE i osobiście pomagał w ustanowieniu bezpośredniej linii komunikacji z francuskimi służbami w celu zwalczania terroryzmu.
OpenAI szykuje się do rewolucji. Firma planuje jesienią wypuścić Strawberry - model zdolny do rozwiązywania złożonych problemów matematycznych, tworzenia strategii rynkowych i prowadzenia badań. Cena jest powalająca. Astronomiczne 2000 dolarów miesięcznie. To nie koniec ambitnych planów - OpenAI zamierza uprościć swoją strukturę korporacyjną, by przyciągnąć inwestorów.
Tesla szykuje się do spektakularnej premiery swojego autonomicznego robotaxi, wybierając na miejsce wydarzenia studio Warner Bros. w Los Angeles. Dlaczego akurat tam? 110-akrowy teren studia to idealna sceneria z makietami podmiejskich miasteczek - wymarzony plac testowy dla futurystycznej technologii. Tesla już zbiera dane w okolicy, by zapewnić, że premiera odbędzie się bez błędów.
Apple znów przyciąga uwagę świata, prezentując swoją najnowszą linię produktów. iPhone 16 i iPhone 16 Pro, Apple Watch Series 10, AirPods 4 - to tylko początek listy nowości. Na pierwszym planie są modele Pro, wyposażone w rewolucyjny chip A18 Pro. Co to oznacza dla użytkowników? Błyskawiczne przetwarzanie zdjęć i filmów z niespotykaną dotąd szczegółowością. Ale to nie wszystko - Apple stawia na kreatywność, dodając cztery mikrofony studyjnej jakości, idealne do nagrań wokalnych i akustycznych. Ponadto pierwsze funkcje Apple Intelligence zadebiutują w wersji beta już w przyszłym miesiącu na iPhone 15 Pro, iPhone 15 Pro Max i całej linii iPhone 16.
SpaceX właśnie zapisało nowy rozdział w historii podboju kosmosu. Misja Polaris Dawn wystartowała we wtorek nad ranem na pokładzie rakiety Falcon 9. Celem misji jest wznieść się wyżej niż jakakolwiek misja od czasu lądowania Apollo 17 na Księżycu w 1972 roku. Czteroosobowa załoga nie tylko przeleci przez wysokoenergetyczny pas Van Allena, ale też podejmie się pierwszego w historii spaceru kosmicznego bez udziału astronautów rządowych. SpaceX stawia wszystko na jedną kartę, testując przy okazji swoje nowe skafandry EVA.
Jak Ci się podoba dzisiejsze wydanie? |