Gust to nowy test IQ
Dlaczego selekcja treści to umiejętności przyszłości w erze starcia człowieka z AI?
Żyjemy w epoce bezprecedensowego przeciążenia informacyjnego. Każda platforma, każdy nowy post, każda sekunda to kolejne bodźce, szum i treści walczące o naszą uwagę.
Tradycyjne mierniki inteligencji (kto zapamiętał najwięcej, kto mówił najgłośniej, kto pierwszy skończył czytać książkę) straciły na znaczeniu w świecie, gdzie sztuczna inteligencja może wygenerować dosłownie wszystko.
Jak trafnie zauważa Stepfanie Tyler w swoim tekscie "Taste Is the New Intelligence" kluczowe pytanie zmieniło się z "czy można to stworzyć?" na "czy warto to tworzyć?".
Granica nie przebiega już przez ilość – ale przez rozeznanie. I w tej transformacji gust stał się umiejętnością przetrwania.
Tyler nie mówi tutaj o guście w powierzchownym sensie – nie o podążaniu za trendami, estetycznym naśladownictwie czy drogim minimalizmie dla statusu.
Chodzi o prawdziwy gust: ten, który sygnalizuje spójność, jasność i umiejętność wybierania tego, co ma znaczenie w świecie w świecie TL;DR i algorytmów.
Autorka przywołuje przykład Ricka Rubina czyli jednego z najbardziej ikonicznych twórców muzycznych naszych czasów.
Producent muzyczny, którego kariera obejmuje współpracę z LL Cool J, Johnnym Cashem czy Laną Del Rey, tworzył w swoim stylu niezależnie od mody na muzyczne gatunki, niezależnie od pokolenia czy branży, a mimo to jego styl jest natychmiast rozpoznawalny.
Co wyróżnia Rubina to nie techniczna maestria, ale uwaga, intuicja i umiejętność wyczuwania tego, co jest właściwe, zanim logicznie staje się jasne, dlaczego to działa.
W swojej książce "The Creative Act" Rubin ledwie wspomina jakiekolwiek nazwiska – jego własne imię ledwo widnieje na okładce i zdecydowanie nie jest głównym elementem.
Bo dla Rubina liczy się sztuka. Nie rozgłos, nie metryki, tylko rezonans. Ta powściągliwość to właśnie sedno sprawy.
Tyler ostrzega przed niebezpieczeństwem pasywności online. Algorytmy nie są neutralne – to wzmacniacze naszych najmniej intencjonalnych odruchów.
Tych, które chcą stymulacji bez wysiłku, walidacji bez rozeznania. Im dłużej scrollujemy, tym bardziej nasz feed trenuje nasz gust – i nie zawsze w kierunku, którego byśmy chcieli.
TikTok uczy nas łaknienia dopaminy.
Instagram uczy porównywania.
X uczy performowania.
Substack (jeśli mu pozwolimy) może nauczyć myślenia, ale tylko jeśli jesteśmy podejmiemy wysiłek.
W chaotycznym systemie rzeczy kruche się łamią. Gust jest anty-kruchy bo staje się silniejszy, lepszy, im z większą ilością zmiennych go skonfrontujemy.
Gdy trenujemy go, przestajemy ulegać trendom, potrzebować konsensusu, reagować na każdą nową rzecz jakby była ważna.
Tyler przywołuje przykład Slima Aaronsa, który fotografował "atrakcyjnych ludzi robiących atrakcyjne rzeczy w atrakcyjnych miejscach". Działało to nie dlatego, że było ekskluzywne, ale dlatego, że było spójne.
Jego zdjęcia miały nastrój, przewodni element – złote światło, klasę próżniaczą, miękki voyeuryzm.
Jak podkreśla cytowany przez autorkę Steve Jobs z wywiadu z 1995 roku: "Ostatecznie wszystko sprowadza się do gustu. Chodzi o to, aby poznać najlepsze dzieła ludzkości, a następnie spróbować wykorzystać je w swojej pracy.”
Sprowadza się do próby “wystawienia” siebie na doświadczenia najlepszych rzeczy, które ludzie stworzyli, a następnie próby przeniesienia doświadczenia z interakcjami z tymi rzeczami na to, co robisz.
Gust nie oznacza posiadania jednego zainteresowania. To przeciąganie spójności przez wiele różnych zainteresowań.
To tkanka łączna między książkami na półce, muzyką w samochodzie, sposobem pisania emaili.
W świecie, gdzie AI wie więcej niż ktokolwiek, gdzie Wikipedia jest darmowa, a internet tak dogłębnie spłaszczył dostęp do informacji, że gromadzenie wiedzy nie jest już imponujące, liczy się to, co z nią robimy.
Jak ją filtrujemy.
Jak rozpoznajemy sygnał w szumie.
Zwykliśmy utożsamiać inteligencję z akumulacją wiedzy, kompulsywnym zbieractwem danych. Najmądrzejsi ludzie to ci, którzy wiedzieli najwięcej.
Ale ten model już nie obowiązuje.
Selekcja treści to nowy test IQ.
Jak konkluduje Tyler, cytując Clive'a Jamesa: "Poczucie smaku to po prostu inna nazwa na osobisty standard, a standardy są zawsze osobiste."
W erze, gdy maszyny mogą generować nieskończone ilości treści, to właśnie ludzki gust (ta głęboka wewnętrzna spójność, ta umiejętność filtrowania świata przez intuicję wyostrzoną uwagą) stanie się tym, co nas od nich odróżni.
To nie będzie luksus, ale jako konieczność.
Nie oznaka status, ale jako szacunek do siebie.
“And in a world where the cheapest dopamine wins by default, taste is how you opt out.
Not to impress anyone.
But to protect your soul.
So you wait. You resist the clickbait. You bypass the novelty. And you build a life—creative, digital, physical—that actually reflects your values.”
Artur Kurasiński
Fajny tekst? Chcesz mnie wesprzeć w tworzeniu kolejnych?
PARTNER SEKCJI CREATIVA LEGAL
AI w Twojej aplikacji - prawne miny, na które możesz wdepnąć (i jak temu zapobiec)
Dlaczego AI Act to nie "kolejna biurokracja"?
AI ACT to pierwsze na świecie kompleksowe rozporządzenie regulujące systemy sztucznej inteligencji, które klasyfikuje je według czterech poziomów ryzyka: niedopuszczalne, wysokie, ograniczone i minimalne. Od 2025 roku każda aplikacja z AI działająca w UE musi spełniać jej wymogi. Firmy mają 12-24 miesiące na dostosowanie się.
Cztery poziomy ryzyka w AI ACT
AI ACT klasyfikuje systemy sztucznej inteligencji według czterech głównych poziomów ryzyka, które determinują zakres obowiązków dla podmiotów wprowadzających je na rynek:
Ryzyko niedopuszczalne – systemy AI zakazane w UE:
· systemy manipulujące zachowaniem człowieka,
· systemy wykorzystujące słabości grup wrażliwych,
· systemy oceniające lub klasyfikujące obywateli (social scoring),
· zdalna identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej (z wyjątkami).
Wysokie ryzyko – systemy podlegające szczegółowym wymogom:
· systemy stanowiące element bezpieczeństwa produktów,
· systemy wykorzystywane w obszarach wyszczególnionych w załączniku III. Załącznik III znajdziesz na stronie 127 AI Actu znajdującego się [pod tym linkiem]
Ograniczone ryzyko – systemy podlegające jedynie obowiązkom informacyjnym:
· systemy wchodzące w interakcje z ludźmi (chatboty), niebędące jednocześnie systemami działającymi w przestrzeni wysokiego ryzyka,
· automatyzacje w procesach.
Minimalne ryzyko – pozostałe systemy AI:
· gry video oparte na AI,
· filtry spamu.
Klasyfikacja danego systemu AI do właściwej kategorii determinuje, jakim wymogom podlega i jakie obowiązki musi spełnić dostawca, aby zgodnie z prawem korzystać z AI w Unii Europejskiej.
Sprawdź czy Twój system AI jest systemem wysokiego ryzyka:
✓ Czy Twój system AI będzie wykorzystywany w obszarach wymienionych w załączniku III?
Załącznik III wymienia konkretne obszary zastosowań sztucznej inteligencji klasyfikowane jako wysokiego ryzyka.
✓ Czy Twój system AI podejmuje decyzje lub wspiera podejmowanie decyzji dotyczących ludzi?
Systemy wspierające procesy decyzyjne dotyczące osób fizycznych często klasyfikowane są jako wysokiego ryzyka.
✓ Czy Twój system AI przetwarza dane biometryczne lub dane osobowe na dużą skalę?
Przetwarzanie danych sensytywnych znacząco podnosi ryzyko związane z systemem AI.
✓ Czy Twój system AI może wpływać na zdrowie, bezpieczeństwo lub prawa podstawowe osób?
Każdy potencjalny negatywny wpływ na te obszary zwiększa poziom ryzyka.
✓ Czy Twój system AI będzie wykorzystywany w sektorach krytycznych?
Sektory krytyczne to na przykład: edukacja, zatrudnienie, wymiar sprawiedliwości czy ochrona zdrowia.
✓ Czy Twój system AI może służyć do profilowania osób fizycznych?
Profilowanie zawsze klasyfikuje system jako wysokiego ryzyka.
✓ Czy Twój system AI może mieć znaczący wpływ na sytuację społeczną lub ekonomiczną jednostek?
Wpływ na dostęp do podstawowych usług prywatnych i publicznych klasyfikuje system jako wysokiego ryzyka.
Pamiętaj! Gdy system AI jest wymieniony w załączniku III, ale spełnia warunki wyłączenia z art. 6 ust. 3 (np. wykonuje wąsko określone zadanie proceduralne), może nie być klasyfikowany jako system wysokiego ryzyka – pod warunkiem, że nie dokonuje profilowania osób fizycznych.
Jeśli na większość z powyższych pytań odpowiedziałeś/aś twierdząco, Twój system AI prawdopodobnie będzie sklasyfikowany jako system wysokiego ryzyka i będziesz musiał/a spełnić szereg wymogów prawnych określonych w AI ACT.
📋 Masz system wysokiego ryzyka? Przeczytaj nasz artykuł, w którym omawiamy wymogi, obowiązki i kary za brak dostosowania do AI Act: [AI ACT – obowiązki dla systemów AI wysokiego ryzyka →]
Mój system jest wysokiego ryzyka – co dalej?
Jeśli Twój system okazał się wysokiego ryzyka, oto metodyczne podejście, które Cię nie przytłoczy:
· zrozum wymagania - zapoznaj się z wymogami, które dotyczą Twojego systemu,
· stwórz plan wdrożenia - opracuj harmonogram implementacji poszczególnych wymogów,
· wdrażaj systematycznie - podejście etapowe ułatwi spełnienie wszystkich wymogów bez przeciążania zasobów,
· monitoruj zmiany - AI ACT to nowe prawo, które będzie ewoluować.
Pamiętaj: AI Act nie jest przeszkodą - to szansa na zbudowanie przewagi konkurencyjnej. Firmy, które zrobią to dobrze, będą miały ogromną przewagę nad tymi, które zwlekają.
To był ostatni planowany mail z serii prawnej, jeżeli chcecie więcej, dajcie nam znać!
Powodzenia w rozwoju Waszych biznesów!
Arkadiusz Szczudło, CEO @ Creativa Legal
NEWSY WARTE TWOJEJ UWAGI
CZŁOWIEK POKONUJE AI W FINALE MISTRZOSTW KODOWANIA
Polski programista Przemysław "Psyho" Dębiak pokonał model OpenAI w finałach AtCoder World Tour 2025 po wyczerpującym 10-godzinnym maratonie. Zwycięstwo pokazuje, że ludzka intuicja i kreatywność wciąż potrafią przewyższyć czystą moc obliczeniową sztucznej inteligencji.
MICROSOFT POMOŻE STWORZYĆ CYFROWĄ REPLIKĘ NOTRE‑DAME
Microsoft współpracuje z rządem Francji w celu stworzenia cyfrowej wersji katedry Notre‑Dame w Paryżu, co zapewni szczegółowy zapis jej architektury i umożliwi wirtualne zwiedzanie. Projekt, oparty na doświadczeniu firmy z Iconem i wcześniejszych inicjatywach jak replika St. Peters, ma służyć konserwacji zabytku i zachowaniu jego dziedzictwa na przyszłe pokolenia.
CZY SZTUCZNA INTELIGENCJA ROZUMIE HUMOR?
Testy wykazały, że AI potrafi rozbawić publiczność na poziomie porównywalnym z ludzkimi komikami, ale nie rozumie głębszych niuansów takich jak ironia czy kontekst kulturowy. Artykuł podkreśla, że śmiech wywołany przez maszyny to wynik algorytmicznej skuteczności, a nie prawdziwego komicznego zrozumienia.
ZASTANÓW SIĘ, ZANIM UDOSTĘPNISZ AI SWOJE DANE OSOBOWE
Artykuł ostrzega przed nadmiernymi uprawnieniami, jakich żądają narzędzia AI – np. dostępem do kalendarzy, kontaktów czy e-maili co może prowadzić do poważnych naruszeń prywatności. Choć wygoda jest kusząca, oddanie kontroli nad danymi wiąże się z realnym ryzykiem ich wykorzystania do trenowania modeli bez naszej wiedzy.