GitHub Copilot X czyli GPT-4 w Twoim IDE 🔥
Google Bard nie wyróżnia się na tle ChatGPT, jak modularyzować aplikacje React, widmo hiperinflacji dolara po upadku SVB oraz opinie o bezpieczeństwie AGI.
Ostatnie trzy miesiące wyglądają jakby ludzkość zaczęła pędzić w przyszłość. Wszystko za sprawą rywalizacji przypadkowo wywołanej przez OpenAI.
Tempo rozwoju AI jest wręcz zapierające dech w piersiach, a nadążanie za najnowszymi przełomami, postępami i zastosowaniami stało się wyzwaniem. Jeśli trzymasz rękę na pulsie świata technologii, prawdopodobnie podobnie jak ja zostałeś zalany zalewem nagłówków, artykułów i przemyśleń na ten temat.
W dzisiejszym newsletterze zabrałem dla Ciebie najbardziej interesujące linki z ostatnich dwóch tygodni. Zaczynałem od listy ponad 40 jakościowych materiałów, więc czuję, że na pewno znajdziesz coś dla siebie.
Technicznie
🤖 GitHub Copilot X - GitHub Copilot ewoluuje w asystenta AI dla programistów. Nowa wersja, Copilot X, wprowadza czat i interfejsy głosowe, obsługuje pull requesty i korzysta z GPT-4 OpenAI. Nowy Copilot X napisze za nas 46% kodu i przyspieszy pracę o 55%.
🪕 Google Bard w cieniu Microsoft/OpenAI ChatGPT- zobacz zestawienie chatbota Google na tle dostępnej na rynku konkurencji. Szału nie ma, więc niewiele nas omija biorąc pod uwagę, że Google interesują jedynie beta testerzy z UK oraz USA 🤷♂️ Na pocieszenie OpenAI dodało pluginy do ChatGPT, umacniając swoją pozycję lidera.
🧩 Modularyzowanie Reacta za pomocą wzorców - dużo mięsa i konkretów, jak to przystało na wpis na legendarnym blogu Martina Fowlera. Świetny przykład jak świadomie projektować aplikacje React.
Rozwojowo
🧠 Genius Makers - dzięki książce poznasz historię czarnego konia sztucznej inteligencji, czyli deep learning, techniki stojącej za ChatGPT czy AlphaGo. Wszystko za sprawą ~20 “true belivers”, którzy rozwijali sieci neuronowe przez trwające ~40 lat zimy AI. Od kilku lat trwa wiosna, która właśnie przechodzi w lato podziwiane przez całą ludzkość.
📈 Czy dolara czeka hiperinflacja? - dla niektórych upadek SVB był jedynie zasłużoną karą dla “odklejonych tech bros” z Doliny Krzemowej. Dla innych jest zapowiedzią poważnych problemów światowej waluty rezerwowej, która zaczyna uginać się pod ciężarem długu i covidowego dodruku. Czy dolar upadnie, a w jego popiole odrodzi się Bitcoin? Tak twierdzi Balaji, były CTO Coinbase, który zdecydował się na brawurowy zakład warty milion dolarów.
Bonus
Koncepcja sztucznej inteligencji ogólnej (AGI), czyli maszyn posiadających inteligencję równą ludzkiej, nie jest już odległym marzeniem.
Jednak z wielką mocą wiąże się wielka odpowiedzialność, a debata dotycząca bezpieczeństwa AI staje się coraz bardziej spolaryzowana.
W tym bonusie przedstawię Ci różne opinii na temat bezpieczeństwa AI, od pesymistycznych, po umiarkowane i optymistyczne punkty widzenia. Perspektyw jest wiele, każda z nich jest warta uwagi, aby zbudować kompleksowe zrozumienie wyzwań i możliwości, jakie stoją przed dziedziną AI.
Pesymizm: Ruch AI Safety
Czołową postacią tego ruchu jest Eliezer Yudkowsky, który ostrzega przed potencjalnym egzystencjalnym ryzykiem, jakie stwarza AGI. Argumentuje, że zapewnienie bezpieczeństwa AI powinno być główną troską badaczy i twórców, nawołując do wstrzymania rozwoju AI, co graniczy z cudem. Podstawową obawą jest to, że AGI, jeśli pozostanie niekontrolowana, może doprowadzić do katastrofalnych konsekwencji, takich jak system AI, który optymalizuje się do celu sprzecznego z interesami człowieka.
To podejście możesz lepiej zrozumieć słuchając podcastu z Elizerem, w którym elokwentnie przekonuje, że praktycznie nie ma już nadzieji i ludzkość jest na skraju zagłady 🙈
Sceptycyzm: Eksperci wątpiący w rychłe nadejście AGI
Podczas gdy niektórzy wyrażają głębokie zaniepokojenie potencjalnymi zagrożeniami związanymi z AGI, inni pozostają sceptyczni co do jej rychłego nadejścia. Wskazują na paradoks Moraveca, który podkreśla rozbieżność pomiędzy zadaniami łatwymi dla ludzi, ale trudnymi dla maszyn i odwrotnie. Na przykład, podczas gdy komputery mogą pokonać ludzi w skomplikowanych grach, takich jak szachy, wciąż zmagają się z prostymi zadaniami, takimi jak rozpoznawanie obiektów czy zniuansowane rozumienie języka naturalnego.
Ponadto sceptycy twierdzą, że ogromne koszty obliczeniowe związane z działaniem sprzętu przeznaczonego do deep learning, w naturalny sposób ograniczają tempo rozwoju sztucznej inteligencji opartej o tę metodę.
Optymizm: Ruch Singularity i Effective Accelerationism
Na drugim końcu spektrum znajdują się osoby, które doceniają potencjał AGI i widzą w niej siłę dla dobra. Zwolennicy ruchu Singularity, tacy jak futurysta Ray Kurzweil, przewidują, że AGI osiągnie niemal boskie możliwości i odmieni na lepsze niemal każdą sferę ludzkiego życia.
W tym samym duchu zwolennicy akceleracjonizmu twierdzą, że szybki rozwój AI można wykorzystać do rozwiązania globalnych wyzwań, takich jak zmiany klimatyczne i niedobór zasobów. Wierzą, że poprzez przyspieszenie badań i rozwoju AI możemy uwolnić jej potencjał, aby stworzyć bardziej zamożny i sprawiedliwy świat.
—
Debata na temat bezpieczeństwa AI jest złożona, a zróżnicowane opinie wynikają z różnych perspektyw filozoficznych i praktycznych.
Wydaje się, że kluczowy jest tutaj zdrowy balans, cokolwiek to znaczy. Musimy szanować potencjalne ryzyka związane z AGI, ale równie ważne jest, aby nie tłumić innowacji, które mogą prowadzić do znaczących korzyści społecznych.
Co Ty sądzisz na ten temat? Daj znać w komentarzu bądź odpowiedzi na maila!
Przeprogramowany Update
Wystartowaliśmy z VII edycją Opanuj JavaScript, co pochłania dużą ilość naszego czasu, stąd brak nowych odcinków na kanale.
Ale spokojnie, kolejny odcinek już w drodze. Dopinam scenariusz filmu, z którego dowiesz się wszystkiego co powinieneś wiedzieć o GPT-4 - na dniach na kanale!
Udanego weekendu,
Marcin