Big Techy w naszych głowach
Jeszcze dekadę temu zdanie “Big Tech chce dostać się do twojej głowy” brzmiałoby jak hasło z kiepskiego thrillera science fiction. Dziś przestaje być metaforą.
W laboratorium MIT Media Lab naukowczyni Nataliya Kosmyna testuje okulary wyposażone w czujniki EEG i EOG, które pozwalają sterować urządzeniami za pomocą samego wysiłku umysłowego. Gdy testujący skupia się na mnożeniu w myślach, piłka na stole zaczyna się poruszać.
To nie magia.To neurotechnologia.
Apple opatentował prototyp AirPodsów wyposażonych w sensory monitorujące aktywność mózgu. Meta ujawniła nowe inteligentne okulary i “neuronalną opaskę” pozwalającą na sterowanie urządzeniami samymi gestami.
W Chinach rozwój interfejsów mózg-komputer (tzw. “BCI”) stał się priorytetem nowego pięcioletniego planu gospodarczego. CEO OpenAI, Sam Altman, założył własny start-up BCI o nazwie Merge Labs. Z kolei Jeff Bezos i Bill Gates inwestują w Synchron, konkurenta Neuralink.
No właśnie, a co z tak niegdyś medialnym projektem Elona Muska jakim był Neuralink? Do dziś Elon wszczepił już swoje urządzenia 12 osobom. “Jesteś swoim mózgiem, a twoje doświadczenia to te neurony, które się aktywują” - powiedział Musk na czerwcowej prezentacji.
Cel jego firmy jest jasny: połączyć sieci neuronowe w naszych mózgach z tymi sztucznymi na zewnątrz, tworząc dwukierunkową ścieżkę między umysłem a maszyną.
Czy to brzmi jak scenariusz prologu Matrixa? Nieco tak, ale przyjrzyjmy się realiom, żeby nie ulec ani nadmiernemu optymizmowi, ani przygniatającemu pesymizmowi. Trzeba jasno powiedzieć: możliwości dzisiejszej neurotechnologii są przerażająco zaawansowane.
Używając sztucznej inteligencji, naukowcy potrafią już obecnie na przykład:
dekodować “wyobrażoną mowę” - konstruować słowa i zdania przy użyciu danych neuronalnych,
odtwarzać mentalne obrazy (dekodowanie mózg-obraz),
śledzić emocje i poziomy energii,
wykrywać orientację seksualną, ideologię polityczną i kłamstwa na podstawie sygnałów EEG i fMRI.
A to dopiero początek.
Badania nad optogenetyką - techniką wykorzystującą światło do stymulowania lub tłumienia poszczególnych, genetycznie zmodyfikowanych neuronów - mogą wkrótce pozwolić nie tylko na “czytanie”, ale też “pisanie” w mózgu. Eksperymenty laboratoryjne już pokazały, że można wszczepić fałszywe wspomnienia do mózgów ssaków, a także przywracać utracone lub tłumić istniejące.
Branża neurotechnologiczna generuje już miliardy dolarów rocznych przychodów i oczekuje się, że w ciągu dekady podwoi lub potroi swój rozmiar. Dziś BCI obejmują zarówno implanty neuronalne, jak i noszone urządzenia - opaski na głowę, czapki i okulary - swobodnie dostępne w sprzedaży online, gdzie są sprzedawane jako narzędzia do medytacji, koncentracji i redukcji stresu.
“To, co nadchodzi, to AI i neurotechnologia zintegrowana z naszymi codziennymi urządzeniami” - ostrzega Nita Farahany, profesorka prawa i filozofii na Duke University. “W zasadzie patrzymy na bezpośrednie interakcje mózg-AI. Te rzeczy będą wszechobecne. Może to doprowadzić do tego, że twoje poczucie siebie zostanie zasadniczo nadpisane”. Tak, to brzmi przerażająco - i powinno budzić niepokój.
Aby zapobiec tej ingerencji w umysły, kilka krajów i stanów już uchwaliło prawa do prywatności neuronalnej. W 2021 roku Chile zmieniło swoją konstytucję, włączając w nią wyraźne ochrony “neuropraw”. Hiszpania przyjęła listę “praw cyfrowych”. Europejskie kraje podpisały Deklarację z León o neurotechnologii. Meksyk, Brazylia i Argentyna debatują nad podobnymi środkami. W USA stany Kalifornia, Kolorado, Montana i Connecticut uchwaliły prawa chroniące dane neuronalne.
Ale to może nie wystarczyć. Rafael Yuste, neuroscientist z Columbia University, który w 2017 roku założył Fundację Neuropraw, przeprowadził badanie 30 konsumenckich firm neurotechnologicznych - wszystkie oprócz jednej nie miały “żadnych znaczących ograniczeń” w pobieraniu lub sprzedawaniu danych neuronalnych użytkowników.
To ważny sygnał dla wszystkich tych, którzy uważają, że ograniczenia czy nadzór nad nowymi technologiami nie jest potrzebny i “hamuje rozwój”. Szczególnie ten drugi argument jest chętnie przytaczany przez sceptyków nowych praw i regulacji, dlatego warto się zapytać - czy nieograniczony rozwój, karmiący się nieskrępowanie i bez żadnych moralnych czy prawnych nadzorów naszymi danymi, emocjami czy nawet informacjami genetycznymi, przyniesie cywilizacji korzystne zmiany?
Ta sytuacja nie jest bezprecedensowa. W latach 50. i 60. XX wieku, gdy José Delgado używał wszczepionej elektrody by zatrzymać szarżującego byka, a CIA prowadziła tajny program MK-Ultra eksperymentujący na nieświadomych więźniach, społeczeństwo zareagowało oburzeniem. Powstały prawa chroniące przed ingerencją w umysł. Rozwój neurotechnologii drastycznie zwolnił.
Dziś jednak, w świecie kapitalizmu nadzoru, gdzie wszystko można zredukować do danych na sprzedaż, gdzie regulacje prywatności oferują tylko odrobinę ochrony, nie mamy odpowiedniego języka, by się przeciwstawić ekspansji gospodarki danych do naszych umysłów.
Jak dużo prywatności jesteśmy jako społeczeństwo gotowi wymienić na ulepszone funkcje poznawcze? Za trzy lata będziemy mieć wieloskalowe modele danych neuronalnych, które firmy mogą umieścić na urządzeniu lub przesłać do chmury, aby próbować przewidywać nasze myśli i zachowania.
Dotychczasowe skandale, jak choćby słynna sprawa Cambridge Analitica, powinny krzyczeć do nas “UWAŻAJMY”. Tu już nie chodzi o prywatność danych, ale o urealniające się możliwości bezpośredniego wpływania na nasze decyzje.
“Zmieniamy ludzi, tak jak media społecznościowe czy duże modele językowe zmieniły ludzi” - mówi Mackenzie Mathis, neuroscientist ze Szwajcarskiego Federalnego Instytutu Technologii w Lozannie.
Musk już wyraził chęć “zniszczenia wirusa woke mind”. Jak zauważają Quinn Slobodian i Ben Tarnoff w nadchodzącej książce, nie wymaga to od nikogo wielkiego logicznego skoku, by podejrzewać, że widzi on Neuralink jako integralną część sposobu na wykonanie tej “groźby”.
“Nasze życie mentalne jest rdzeniem naszego ja i kiedyś byliśmy pewni, że nikt nie może przełamać tej bariery” - mówi Andrea Lavazza, etyk i filozof z Uniwersytetu Pegaso we Włoszech.
Upadek tej pewności może być zaproszeniem do strachu przed przyszłością, w której nieograniczone użycie tych technologii zniszczy społeczeństwo, jakie znamy. Albo odwrotnie - może być okazją do przemyślenia polityki, która nas tu zaprowadziła.
Debata o neuroprawach jest w pewnym sensie ostatnią próbą zapewnienia, że ciężko wywalczona w poprzednim stuleciu ochrona naszego “ja” da radę p -zapobiec zmianom, przez które, wolność myśli, sumienia i opinii zostaną skutecznie stłumione przez coraz bardziej algorytmiczne doświadczanie codziennego życia.
Pytanie brzmi: czy będziemy działać, zanim będzie za późno, czy pozwolimy BigTechom wkroczyć tam, gdzie nigdy nie powinny mieć dostępu - czyli do naszych umysłów?
Artur Kurasiński
Fajny tekst? Chcesz mnie wesprzeć w tworzeniu kolejnych?
JAKĄ KONKRETNĄ WIEDZĘ ZWIĄZANĄ Z AI OTRZYMASZ NA NASZYM KURSIE I JAK ONA MOŻE POMÓC TWOJEJ ORGANIZACJI?
Organizacje nie potrzebują dziś kolejnej subskrypcji do narzędzia AI, ale. ludzi, którzy potrafią przełożyć AI na procesy, decyzje i realne korzyści…
Dlatego stworzyliśmy AI LEADERs czyli kohortowe szkolenie dla osób, które chcą stać się liderami AI w swoich organizacjach. W ciągu 5 tygodni uczestnicy przechodzą przez całość: od fundamentów, prawa i cyberbezpieczeństwa, przez strategię AI i budowę kodeksu korzystania z AI, po prompt engineering, context engineering, tworzenie własnych asystentów, wykorzystanie AI w marketingu, sprzedaży, produkcie, HR i L&D oraz budowę bezpiecznego, minimalistycznego stosu narzędzi.
To nie jest kurs o „sztuczkach z AI” i tworzeniu promptów. Jeśli szukasz przepisów jak za pomocą prostych instrukcji napisać posta czy stworzyć obrazek to nie jest to szkolenie dla Ciebie (zapraszamy do konkurencji).
Z naszego kursu dowiesz się realnie jak:
→ podejmować lepsze decyzje wdrożeniowe w swojej organizacji,
→ ograniczać ryzyka prawne i jakościowe,
→ budować workflow i asystentów AI,
→ pracować na danych, wiedzy i procesach,
→ prowadzić organizację przez realną zmianę.
Na końcu uczestnik nie zostaje tylko z wiedzą, ale kończy kurs z własnym systemem pracy: draftem zasad korzystania z AI, personalnym systemem zarządzania wiedzą i własnym asystentem AI, którego można rozwijać długo po zakończeniu kursu.
Jeśli chcesz nie tylko używać AI, ale naprawdę umieć wdrażać ją w organizacji i inspirować do tego innych to nasz kurs jest właśnie dla Ciebie.
Zapraszam wraz z Przemek Jurgiel-Zyla i Paula Skrzypecka!
PEŁNA AGENDA KURSU I ZAPISY >
Czy w epoce YouTube’a, algorytmów i wielkich platform technologicznych da się jeszcze stworzyć naprawdę niezależne medium? Moim gościem jest Igor Janke - dziennikarz, publicysta, twórca Salon24, prezes Instytutu Wolności i współtwórca nowego projektu medialnego: Kanału Otwartego.
Rozmawiamy o tym, co stało się z tradycyjnymi mediami, dlaczego zaufanie do dziennikarstwa tak mocno się kruszy i czy internet naprawdę dał twórcom wolność czy tylko przeniósł zależność z redakcji na algorytmy Google’a, YouTube’a, TikToka i Mety.
Pytam Igora Janke m.in. o to, czy po odejściu z klasycznych mediów czuje się dziś bardziej wolny, jak wygląda niezależność w praktyce, czy platformy mogą wpływać na demokrację, dlaczego nowe media tak dobrze wykorzystują polityczne skrzydła, a tak słabo centrum, oraz czy projekt „bez polaryzacji” ma szansę wygrać uwagę odbiorców w internecie, który premiuje konflikt.
Rozmawiamy też o kulisach Kanału Otwartego: inwestorach, modelu biznesowym, reklamodawcach, Patronite, technologii, planach stworzenia „mediatechu” i o tym, gdzie kończy się otwartość, a zaczyna odpowiedzialność redakcyjna.
To rozmowa o mediach przyszłości, demokracji, zaufaniu, algorytmach, polityce i cenie niezależności.
Z tego odcinka dowiesz się o:
– czy niezależne media mogą istnieć na cudzych platformach,
– jak algorytmy zmieniają politykę i debatę publiczną,
– dlaczego YouTube stał się nową telewizją,
– czy „normalność” może konkurować z kontrowersją,
– jak zbudować medium, które nie chce być ani prawicowe, ani lewicowe,
– co oznacza odpowiedzialność redakcyjna w epoce viralowych treści,
– czy technologia pomaga rozmawiać ponad podziałami, czy raczej betonuje plemiona.
ZOBACZ📺
POSŁUCHAJ🎙️
NEWSY WARTE TWOJEJ UWAGI:
Przeszukałem cały Internet w poszukiwaniu najciekawszych/najważniejszych historii dotyczących technologii ;)
APPLE CORAZ MOCNIEJ INWESTUJE W AI
Apple przeznacza już około 10% swoich przychodów na badania i rozwój, wyraźnie zwiększając wydatki związane ze sztuczną inteligencją. Firma próbuje nadrobić dystans do konkurencji, stawiając na rozwój własnych modeli i nowych funkcji AI dla użytkowników swoich urządzeń.
OSCARY ZMIENIĄ ZASADY PRZEZ AI?
Akademia filmowa rozważa zmiany w kategoriach aktorskich po rosnącej liczbie produkcji wykorzystujących sztuczną inteligencję do modyfikacji głosu i wyglądu aktorów. Dyskusja dotyczy tego, gdzie kończy się ludzka kreacja, a zaczyna cyfrowa ingerencja wpływająca na ocenę ról.
WOJNA O OPENAI NABIERA TEMPA
Konflikt między Elonem Muskiem a Samem Altmanem coraz mocniej wpływa na przyszłość OpenAI, a w tle pojawiają się także napięcia wokół byłych liderów firmy, w tym Miry Murati. Spór dotyczy nie tylko kontroli nad rozwojem AI, ale też kierunku, w jakim zmierza cała branża technologiczna.
EV OFIARAMI WOJNY EKONOMICZNEJ MIĘDZY USA A CHINAMI
Napięcia między USA a Chinami coraz mocniej uderzają w branżę elektromobilności, prowadząc do technologicznej izolacji obu rynków. Ograniczenia dotyczące oprogramowania, baterii i komponentów mogą znacząco zmienić globalny układ sił w sektorze aut elektrycznych.
CHINY STAWIAJĄ NA HUMANOIDALNE ROBOTY
Chiny chcą wykorzystać humanoidalne roboty jako kolejny motor swojej dominacji eksportowej, inwestując miliardy w rozwój automatyzacji i AI. Państwo liczy, że nowe technologie pozwolą utrzymać przewagę produkcyjną mimo rosnących kosztów pracy i globalnych napięć handlowych.
SPACEX Z WIĘKSZYM DOSTĘPEM DO CLAUDE’A
Anthropic zwiększa limity korzystania z modeli Claude dla SpaceX, co może przyspieszyć rozwój wewnętrznych narzędzi AI w firmie Elona Muska. Współpraca pokazuje, jak szybko zaawansowane modele językowe stają się kluczowym elementem dużych projektów technologicznych.
EVE ONLINE POSŁUŻY DO TESTOWANIA AI
Google DeepMind nawiązało współpracę z twórcami EVE Online, aby wykorzystywać grę jako środowisko do testowania modeli sztucznej inteligencji. Złożona ekonomia i interakcje między graczami mają pomóc w rozwijaniu bardziej zaawansowanych systemów AI zdolnych do podejmowania decyzji w dynamicznych warunkach.
OKULARY ICE Z ROZPOZNAWANIEM TWARZY
ICE pracuje nad inteligentnymi okularami, które mają współpracować z systemem rozpoznawania twarzy Mobile Fortify używanym już przez agentów w terenie. Technologia ma umożliwiać błyskawiczne identyfikowanie osób na podstawie danych biometrycznych, co wywołuje kolejne pytania o prywatność i skalę nadzoru w USA.
RAMAGEDDON STRASZY BRANŻĘ AI
Najwięksi gracze technologiczni obawiają się nadchodzącego kryzysu pamięci RAM, który może utrudnić rozwój coraz bardziej wymagających modeli AI i centrów danych. Rosnące zapotrzebowanie na pamięć już wpływa na ceny sprzętu oraz strategie firm inwestujących miliardy w sztuczną inteligencję.


