Kodować po ludzku
Przyzwyczailiśmy się do myśli, że oprogramowanie to kod.
Linie w C++, JavaScript czy Pythonie, które ktoś ręcznie pisze, kompiluje i wdraża. Znalezienie w nich błędów wymaga wejścia myślami na inny, algorytmiczny poziom, obcy codziennemu doświadczeniu ludzi.
Ale Andrej Karpathy, były szef działu AI w Tesli i jeden z najważniejszych głosów w świecie sztucznej inteligencji, przekonuje, że ta definicja właśnie się kończy.
Programowanie po angielsku
W jego wystąpieniu na konferencji dotyczącej przyszłości inżynierii padła teza, która może nie brzmieć powalająco, dopóki nie uświadomimy sobie jej konsekwencji: „programowanie odbywa się dziś po angielsku”.
Karpathy opisuje trzy epoki tworzenia oprogramowania.
● W Software 1.0 programujemy maszyny za pomocą tradycyjnych języków, każda instrukcja to ręcznie napisany kod. To oprogramowanie wysłało nas na Księżyc.
● W Software 2.0 (epoka sieci neuronowych), programem są dane, a kod to optymalizowane wagi modelu. To oprogramowanie dało nam ChatGPT, pierwszy obiekt, który Yuval Noah Harari nazwał “nie-ludzką inteligencją”.
● Ale to, co dzieje się teraz, to jego zdaniem prawdziwa rewolucja, czyli Software 3.0, w którym kodem są prompty, sterujące zachowaniem modeli językowych, a interfejsem język naturalny. Gdzie nas to zaprowadzi - dopiero się przekonamy.
Modele takie jak GPT-4, Claude czy Gemini traktujemy jak maszyny, które możemy zaprogramować mówiąc lub pisząc, bez znajomości tradycyjnego języka programowania.
“The hottest new programming language is English”
To nie jest tylko marketingowa metafora. LLM-y zaczynają zastępować klasyczne funkcje kodu w tysiącach zastosowań.
Karpathy przywołuje przykład Cursor.dev – edytora kodu, w którym można wywołać refaktoryzację, analizę lub dodanie funkcji za pomocą prompta, a nie przez pisanie kodu.
Maszyny w służbie ludzi
To nie tylko wygoda – to inny model pracy: człowiek projektuje intencję, maszyna implementuje.
W efekcie powstaje nowy typ programistów, którzy nie znają Pythona, ale potrafią tworzyć aplikacje mobilne, interfejsy, a nawet gry dzięki AI.
Karpathy sam zbudował dwie aplikacje mobilne w weekend. Obie w języku Swift, którego nawet nie zna.
Jego słynny serwis “Menu.app”, który generuje zdjęcia dań na podstawie zdjęcia menu, powstał w kilka godzin i... kosztował go tysiące dolarów, ponieważ każdy nowy użytkownik dostaje darmowy kredyt na generację obrazów.
Jakie są konsekwencje tego przesunięcia? Po pierwsze, wszyscy stajemy się programistami. Nie w sensie tradycyjnym, ale jako twórcy logiki, usług i automatyzacji. Jeszcze do niedawna luksus programowania mikro-serwisu tylko dla siebie dostępny był wyłącznie programistom. W tej chwili wymaga nieco samozaparcia i dostępu do narzędzi. Bariera wejścia obniżyła się nieprawdopodobnie.
Już dziś ponad 50% użytkowników GitHub Copilot to osoby spoza świata IT. Microsoft podaje, że dzięki AI średnia produktywność zespołów developerskich wzrosła o 55%. IDC szacuje, że do 2026 roku ponad 75% nowych aplikacji korporacyjnych będzie tworzonych z pomocą low-code i no-code, często zintegrowanych z modelami LLM.
Po drugie, LLM-y stają się nowym systemem operacyjnym. Zadaniem tradycyjnych OSów jest komunikacja na linii człowiek-maszyna. LLMy robią to samo, nieprawdopodobnie rozszerzając możliwości maszyny w interpretacji i przetwarzaniu zachowań ludzi. Jeszcze do niedawna interfejsów - linii komend, myszy, klawiatury - trzeba było się uczyć. AI rozmawia z nami tak, jak robią to inni ludzie.
Karpathy porównuje obecne LLMy do mainframe’ów z lat 60.: kosztowne, scentralizowane, dostępne w trybie współdzielonym (time-sharing), działające przez API. Ich działanie przypomina dziś bardziej infrastrukturę użyteczności publicznej – jak prąd czy woda. Tyle, że użytkownik, zamiast napełnić czajnik wodą, napełnia swój serwis sztuczną inteligencją.
OpenAI, Anthropic i Google wydają miliardy dolarów na trenowanie modeli, które następnie są dostępne „na żądanie” przez płatne interfejsy.
W 2023 roku samo OpenAI wydało ponad 500 mln USD na infrastrukturę obliczeniową, a koszty trenowania GPT-4 szacowano na około 100 mln USD.
W praktyce każdy przetworzony token to mikropłatność za energię, obliczenia i utrzymanie całego systemu. Tak samo, jak w cenie metra sześciennego wody w praktyce wliczone są wszystkie krople, które ten litr tworzą.
Jednak te modele nie są doskonałe. Karpathy zwraca uwagę, że LLM-y są jak duchy ludzi (mają fenomenalną pamięć encyklopedyczną, ale nie potrafią „uczyć się” jak człowiek).
Systemy amnezyjne
Ich największe ograniczenie to tzw. anterograde amnesia – nie zapamiętują interakcji z użytkownikiem ani nie rozwijają wewnętrznej wiedzy o otoczeniu. Codziennie „budzą się” z tą samą wiedzą i trzeba je ponownie konfigurować kontekstem i promptami.
Mają też momenty zupełnie nielogicznego zachowania – halucynują, przekłamują, popełniają błędy językowe. Potrafią być genialne i głupie, często jednocześnie.
To przypomina sytuację z rozwojem autonomicznych aut: już w 2013 roku Karpathy jeździł w Waymo po Palo Alto w trybie autonomicznym.
Mimo to, 12 lat później nie mamy powszechnego autopilota – bo drobiazgi są trudniejsze niż spektakularne dema.
Zbroja Iron Mana
Dlatego Karpathy nie wzywa do tworzenia w pełni autonomicznych agentów. Wprost przeciwnie – proponuje, byśmy myśleli o LLM-ach jak o zbrojach Iron Mana, nie jak o Iron Manie samym w sobie.
One mają nam pomagać, zwiększać nasze możliwości, ale to my wciąż jesteśmy pilotami. Przyszłość to nie agenci, którzy wszystko zrobią za nas, ale aplikacje z „suwakiem autonomii”, które pozwolą użytkownikowi przesuwać balans między kontrolą a automatyzacją.
To nie jest science fiction. Widać to już w takich narzędziach jak Perplexity, GitHub Copilot, Notion AI czy Replit.
Interfejsy przyszłości nie będą kodowane w całości. Będą projektowane w interakcji z AI. A Twoje pytanie do użytkownika może stać się kodem backendu.
Karpathy kończy swoje wystąpienie z mieszanką entuzjazmu i realizmu.
Oprogramowanie zmienia się naprawdę.
I choć dopiero uczymy się programować tę nową klasę maszyn, jedna rzecz jest pewna: każdy, kto dziś wchodzi do branży technologicznej, będzie pisał nie tylko kod, ale także eleganckie zdania po angielsku.
Bo w Software 3.0 to właśnie język naturalny staje się najważniejszym IDE.
Czy jesteśmy na to gotowi?
PS Polecam post Karpathiego na temat IDE / agentów / Claude Code
Artur Kurasiński
Fajny tekst? Chcesz mnie wesprzeć w tworzeniu kolejnych?
JAK AI ZMIENIA DZIAŁY HR?
Rozmawiamy z Pauliną Zasempą z SD Worx Poland o tym, jak makrotrendy demograficzne i społeczne wpływają na rynek pracy w Polsce i Europie, jak firmy radzą sobie z niedoborami kadrowymi oraz co oznacza zmiana podejścia pracowników do lojalności i modeli pracy po pandemii…
Dyskutujemy, kiedy outsourcing HR przynosi realne korzyści, jakie obawy mają firmy wobec tej decyzji i jak technologia (w tym AI i szerzej HR Tech) wspiera zespoły HR nie tylko operacyjnie, ale i strategicznie. Zastanawiamy się, czy sztuczna inteligencja chroni miejsca pracy czy je eliminuje, jak nowoczesne narzędzia wpływają na employer branding oraz czy 4‑dniowy tydzień pracy to realna przyszłość i co musi się wydarzyć, by go wdrożyć.
Poruszamy też temat kompetencji, których HR potrzebuje, by być partnerem dla biznesu, kultury organizacyjnej w czasach automatyzacji i pracy zdalnej oraz tego, jak może wyglądać praca za 5–10 lat.
Jeśli interesuje Cię przyszłość pracy, HR jako partner biznesu, praktyczne wykorzystanie AI w zarządzaniu talentami oraz realne wyzwania, z jakimi mierzą się dziś organizacje to ten odcinek jest dla Ciebie.
ZOBACZ📺
POSŁUCHAJ🎙️
NEWSY WARTE TWOJEJ UWAGI:
Przeszukałem internet w poszukiwaniu najciekawszych/najważniejszych historii dotyczących technologii:
SPACEX PRZEJMUJE XAI
SpaceX przejęło firmę xAI Elona Muska, łącząc ambicje kosmiczne z rozwojem sztucznej inteligencji. Ruch ten może zacieśnić współpracę technologii AI z eksploracją kosmosu.
META PODWOI PRODUKCJĘ OKULARÓW RAY-BAN
Meta planuje znacznie zwiększyć produkcję inteligentnych okularów Ray-Ban po gwałtownym wzroście popytu. Firma rozważa podwojenie rocznych dostaw do 20 milionów sztuk do końca 2026 roku.
CHINY PLANUJĄ 200 000 SATELITÓW, SPACEX TYLKO 50 000
Podczas gdy SpaceX dąży do rozbudowy sieci Starlink do 50 000 satelitów, Chiny rozważają stworzenie megakonstelacji aż 200 000 jednostek. To zapowiedź nowego wyścigu kosmicznego o dominację w globalnym internecie satelitarnym.
IVE I ALTMAN PRACUJĄ NAD KONKURENTEM DLA AIRPODS
Nowe urządzenie AI tworzone przez Jony’ego Ive’a i Sama Altmana ma oferować zaawansowaną obsługę głosową i noszenie za uchem. Projekt może bezpośrednio konkurować z AirPods dzięki integracji z ChatGPT.
JAK PISAĆ SKUTECZNE SPECYFIKACJE DLA AGENTÓW AI?
Dobra specyfikacja powinna być jasna, modularna i prowadzona etapami, zamiast przytłaczających promptów. Kluczowe jest dzielenie zadań i struktura podobna do dokumentów PRD lub SRS.
NADCHODZI “ROK VOICE”?
Nowa fala technologii AI może wreszcie zrealizować wizję naturalnej komunikacji głosowej z komputerami. „Vocal computing” ma szansę zastąpić klawiatury i ekrany jako główny interfejs użytkownika.
THREADS PRZEGONIŁ X W UŻYTKOWNIKACH NA MOBILE
Aplikacja Threads od Mety po raz pierwszy wyprzedziła X (dawny Twitter) pod względem dziennych użytkowników mobilnych, osiągając 141,5 mln aktywnych osób. Sukces przypisuje się integracji z innymi usługami Mety i szybkiemu rozwojowi funkcji.
TIKTOK URUCHAMIA APLIKACJĘ PINEDRAMA
Nowa aplikacja PineDrama pozwala oglądać minutowe mini‑dramaturgie w stylu serialowym, w pionowym formacie znanym z TikToka. Usługa ruszyła w USA i Brazylii, oferując darmowy dostęp bez reklam.
REELSY DOMINUJĄ NA INSTAGRAMIE
Ponad połowa reklam na Instagramie w 2025 roku pojawiła się w formacie Reels, co pokazuje rosnące znaczenie krótkich wideo w strategii Meta. Choć generują niższy przychód na wyświetlenie, reklamodawcy coraz chętniej lokują tam budżety.
IRAN: INTERNET TYLKO DLA WYBRANYCH
Iran testuje model „internetowych koszar”, dając elitom dostęp do globalnej sieci, a resztę społeczeństwa ograniczając do krajowego intranetu. To próba stworzenia trwałego systemu kontroli, który może mieć katastrofalne skutki dla obywateli i gospodarki.
LINK
SHOPIFY DOLICZY 4% ZA ZAKUPY PRZEZ CHATGPT
Sprzedawcy Shopify zapłacą 4-procentową prowizję od transakcji sfinalizowanych przez ChatGPT Instant Checkout. Nowa opłata obowiązuje od 26 stycznia i trafia bezpośrednio do OpenAI.
LINK
BBC WCHODZI NA YOUTUBE Z WŁASNYMI PRODUKCJAMI
BBC zawarło historyczną umowę z YouTube, w ramach której stworzy oryginalne treści dla platformy – od rozrywki po sport i wiadomości. To krok w stronę młodszej, globalnej widowni i odpowiedź na zmieniające się nawyki medialne.
LINK


Platformy AI mocno demokratyzują tworzenie małych projektów IT. Ale potrzeba zatrudniania specjalistów umiejących programować nie zniknie.
1. Generowany kod aplikacji nie jest i nie bedzie wolny od luk bezpieczeństwa.
2. Koszty API LLM będa rosnąć. Póki co te wszystkie super uslugi to honey pot dużych graczy.
3. Budowa aplikacji opartej o API któregoś z amerykańskich Big Techów to kolejny poziom uzaleznienia po wielkej migracji do usług chmurowych która się odbyla parę lat temu.
Reraz mamy hype. Zobaczymy jak to bedzie wygladać za rok-dwa lata.
Ważny temat - utrzymanie 'ludzkiego' elementu w kodowaniu w erze AI. Sam zauważyłem, że gdy agent pisze za dużo kodu, tracę poczucie, co się tam właściwie dzieje. To jak delegowanie zadań - musisz znać szczegóły, żeby ocenić jakość.
Rozwiązanie, które u mnie działa: agent robi 'gruntowną robotę', ale ja robię review na poziomie architektury i logiki biznesowej. Nie kod linia po linii, ale zrozumienie, czy to ma sens.
Więcej o balansie między autonomią a kontrolą: https://thoughts.jock.pl/p/openclaw-good-magic-prefer-own-spells