🤤 Jak nie dać się ogłupić przez AI i social media?
Nowości ze świata frontendu i sztucznej inteligencji - co piątek na twojej skrzynce.
Hej, z tej strony Marcin.
Dzisiaj zacznę od przemyśleń dotyczących racjonalności, sceptycyzmu i badań naukowych.
Każdy z nas regularnie natrafia na publikacje z nagłówkami pokroju "Badania MIT udowadniają, że 83% ludzi zostaje ogłupianych przez AI" albo "Naukowcy z Harvard odkryli sekret szczęścia"
Zanim uznasz to za fakt, warto się zatrzymać i zadać kilka pytań.
Dużo myślałem o tym, jak łatwo dać się zwieść głośnym "odkryciom naukowym", które przewijają się przez książki popularnonaukowe i social media. Problem jest poważniejszy, niż mogłoby się wydawać.
W badaniach, zwłaszcza humanistycznych, od lat trwa kryzys. Wiele badań, na których opieramy nasze rozumienie natury ludzkiej, ma poważne wady metodologiczne:
Małe grupy badawcze (często studenci)
Eksperymenty oderwane od rzeczywistości
Problemy z odtwarzalnością wyników
Ważnym przykładem jest słynny eksperyment więzienny Zimbardo – cytowany w niezliczonych książkach rozwojowych. Tyle że ten eksperyment ma fundamentalne problemy metodologiczne i etyczne. Badacz prowadził go tak, by potwierdzić swoją tezę, a nie by obiektywnie sprawdzić hipotezę. Więcej informacji tutaj.
To samo dzieje się dziś z badaniami dotyczącymi AI. Widzę regularne przykłady słabej metodologii lub – jeszcze częściej – błędnej interpretacji przez komentatorów, nawet tych z tytułami naukowymi.
Kiedy następnym razem natkniesz się na sensacyjny wniosek "oparty na badaniach":
Sprawdź źródło – jaka była grupa badawcza? Jak duża? Czy reprezentatywna?
Przeanalizuj metodologię – co dokładnie badano i w jakich warunkach?
Przeczytaj konkluzje autorów – często są o wiele bardziej ostrożne niż interpretacje mediów
Narzędzia jak NotebookLM mogą w tym pomóc – wrzuć tam artykuł naukowy i zapytaj o szczegóły.
Pamiętaj: ludzki mózg łatwo daje się zwieść emocjom i potwierdzeniu swoich przekonań. Nie ufaj mi, nie ufaj ekspertom w mediach – sprawdzaj sam. To jedyna droga do budowania prawdziwej wiedzy w świecie pełnym informacyjnego szumu.
W bonusie znajdziesz moją analizę ostatniego hitu social media, czyli badania MIT o tym jak to “AI ogłupia 83% ludzkości”.
🧑💻 Technicznie
Warp 2.0 - popularny terminal nowej generacji poszedł “All-in w AI”. System integruje funkcje kodowania, agentów, terminala w jednej aplikacji. Rozwiązanie osiąga świetną jakość w zakresie AI - 71% na SWE-bench Verified. Platforma oferuje konfigurowalne uprawnienia, lokalne działanie i zero-data retention dla bezpieczeństwa.
Krótka historia botów i ich zwalczania - artykuł opisuje ewolucję botów i technik ich wykrywania jako ciągły wyścig zbrojeń, gdzie systemy przechodziły od prostego sprawdzania User-Agent, przez zaawansowany fingerprinting, aż po analizę behawioralną z wykorzystaniem sztucznej inteligencji.
Oprogramowanie się zmienia (znowu) - W swojej prelekcji Andrej Karpathy analizuje ewolucję oprogramowania od Software 1.0 aż po erę LLM-ów, gdzie język naturalny staje się nowym językiem programowania. Trafnie identyfikuje kluczowe wyzwania - od halucynacji modeli po potrzebę zachowania kontroli użytkownika w częściowo autonomicznych aplikacjach.
📚 Rozwojowo
Quebonafide u Stanowskiego - mój ulubiony polski raper w ten weekend z hukiem kończy swoją muzyczną karierę. Z tej okazji odwiedził Kanał Zero i udzielił 4-godzinnego wywiadu pełnego ciekawych przemyśleń o showbiznesie, podróżowaniu i relacjach.
You’re Always Missing Out - filozofia akceptacji faktu, że zawsze omija nas coś fajnego. To paradoksalnie pozwala uwolnić się od współczesnego stresu wywołanego nadmiarem opcji i wybierać z ciekawości zamiast z lęku.
10xAlert: Przedsprzedaż wystartowała! Zapisz się do drugiej edycji w TOP cenie!
👉 Więcej o drugiej edycji, nowościach i ulepszeniach, dowiesz się tutaj.
🎉 Bonus
Po powrocie z urlopu napisałem posta o sensacyjnym przekazie wokół badania MIT, które zdaniem wielu udowadnia, że “AI ogłupia ludzkość”
👉 Link do mojej analizy badania MIT
Dziś chcę rozwinąć ten temat. Na LinkedIn wyczerpałem limit znaków, a dyskusja w komentarzach pokazała, jak złożone to zagadnienie.
Nie chcę pozostawiać wątpliwości: ryzyko zaciągania długu kognitywnego u początkujących programistów wykorzystujących AI rzeczywiście istnieje i nie wolno go bagatelizować.
Doświadczony programista używa AI jako narzędzia do przyspieszenia pracy nad problemami, które już rozumie. Początkujący często próbuje przeskoczyć etap zrozumienia fundamentów.
Badanie MIT, mimo swoich ograniczeń metodologicznych, pokazuje coś ważnego - gdy outsourcujemy myślenie do technologii w obszarach, gdzie nie mamy doświadczenia, płacimy za to konkretną cenę kognitywną.
Ja na początku swojej drogi programistycznej świadomie wystrzegałem się Stack Overflow. Chciałem do wielu rozwiązań dojść samodzielnie, korzystając jedynie z własnych notatek z dokumentacji i książek.
Wielokrotnie powtarzałem w podcaście Opanuj AI swoje wątpliwości co do tego, czy i w jakim stopniu początkujący programiści powinni korzystać z LLMów. Badanie MIT utwierdza mnie w przekonaniu, że te wątpliwości są słuszne.
A skąd te wątpliwości i “radykalne” podejście do samodzielnej nauki programowania?
Jedną z najważniejszych książek, które zmieniły moje życie, jest "Głowa do liczb" dr Barbary Oakley. Przeczytałem ją na początku przygody z programowaniem i miała fundamentalny wpływ na moje podejście do uczenia się.
W erze LLM ta książka jest jeszcze ważniejsza. Dlaczego?
Pokazuje, jak efektywnie się uczyć z wykorzystaniem dostępnych narzędzi - od książek po internet - w sposób świadomy i skuteczny. To ponadczasowa wiedza o tym, jak mózg się uczy i jak wykorzystać tę wiedzę w praktyce.
Oakley opisuje m.in. różnicę między trybem skupionym a rozproszonym myślenia, znaczenie aktywnego przypominania, problem iluzji wiedzy. Wszystkie te koncepcje stają się kluczowe przy korzystaniu z AI.
Najważniejszy take-away z tej książki? Kluczowa jest ciekawość i aktywna postawa w procesie nauki. To właśnie pokazuje badanie MIT - nie tyle "ogłupianie", co zmniejszenie aktywnego zaangażowania poznawczego.
AI może jednak wzmacniać zaangażowanie poznawcze, jeśli korzystamy z niej świadomie, w odpowiednim momencie i z odpowiednią wiedzą podstawową. Jednak inaczej wpływa na nowicjusza korzystającego na ślepo, a inaczej na eksperta używającego jej strategicznie.
Kluczowe pytania, które powinniśmy sobie zadawać:
W jakim momencie procesu uczenia się wprowadzać AI?
Jak zachować równowagę między efektywnością a głębokim zrozumieniem?
Zrobimy co w naszej mocy jako Przeprogramowani, aby zrozumieć lepiej to zagadnienie i dzielić się wiedzą, jak świadomie korzystać z AI w branży IT.
Nie chodzi o demonizowanie technologii ani bagatelizowanie problemów. Chodzi o budowanie świadomości i umiejętności odpowiedzialnego korzystania z narzędzi, które mają ogromny potencjał.
✨ Przeprogramowane Nowości
Zobacz wyróżnione projekty z pierwszej edycji 10xDevs - Demo Day był wydarzeniem, które przygotuje nas na drugą, jeszcze lepszą edycję szkolenia!
Przypomnę tylko, że przedsprzedaż jest już otwarta - 10xdevs.pl
Udanego tygodnia,
Marcin
PS. Jeśli czekasz na kolejne wydanie Newslettera, kliknij w ❤️ poniżej - dzięki!