Skip to content
Menu
MIACZ.IT – IT & Lifestyle
  • Strona główna
  • O mnie
  • Finanse
  • AI
  • Gaming
  • IT
  • Kontrowersje
  • News
MIACZ.IT – IT & Lifestyle

AI – A na co to komu?

Opublikowano 3 marca, 20243 marca, 2024

Wstęp

Do napisania tego wpisu zainspirowało mnie pytanie jednego z moich idoli i publicznego psychoterapeuty leczącego brednią, o to, co właściwie uważam na temat sztucznej inteligencji, gdzie jesteśmy teraz, gdzie byliśmy 10 lat temu oraz gdzie będziemy za 10 lat? Te pytania stanowią fundament poznania tego tematu dogłębnie. O czym będzie ten wpis? O AI dziś, stanie wiedzy na temat jej rozwoju, oraz o tym o czym mało osób mówi głośno – o REALNYCH zagrożeniach płynących za rozwojem AI oraz o zakulisowej polityce i ogromnych pieniądzach, które ten rozwój napędzają. Zapraszam.

TL;DR dziś dostępny na dole strony, za długo by pisać.

Cyberpunk 2000

Jest 1 stycznia, 2000 r. Budzisz się rano i okazuje się, że:

  • Świat się nie skończył,
  • Daty w kalendarzu się nie przekręciły,
  • Telewizor działa,
  • Jest teleranek xD

No generalnie nic się nie zmieniło. Żyjemy, tzn nie wszyscy, pewnie ktoś umarł, ale bez spektakularnych wybuchów, ogni piekielnych itp. Po prostu sielankowa szara rzeczywistość – szkoła, studia, praca – cokolwiek. W tym czasie pasjonaci gier w czasie wolnym łupią w takie tytuły jak Total Annihilation, Age of Empires, Divine Divinity, przemierzają górniczą dolinę w Gothic, czy stają się bohaterem w The Elder Scrolls: Morrowind, spotykając przy tym masę interaktywnych przeciwników oraz sojuszników. Czasem to są wrogie hordy, „oddziały”, których jedyną logiką jest „jeśli odległość przeciwnika od celu jest X oraz potencjał bojowy jest Y oraz z wzoru [tu dowolny wzór uwzględniający hp i inne wskaźniki] wynika, że wygrasz, atakuj” (oczywiście w dużym uproszczeniu). W innych wypadkach są to skrupulatnie zaplanowane „ścieżki” rozwoju i miasta. Gracz w roku 2000 wchodzi do świata, który wydaje się żywy, mimo, że SI jest zazwyczaj zbiorem prostych reguł. Nie ma tam nic z AI znanego nam dziś. I dobrze, bo rodzą się gry, które fabularnie i mechanicznie nie mają podjazdu.

Pojawia się potrzeba wspólnego grania, grania z drugim człowiekiem. I mimo, że Tibia jest już dobrze znana, w ciągu najbliższych 5 lat wyjdą takie tytuły jak MU, RuneScape, World of Warcraft, Metin czy Guild Wars. Gry te jednak oprócz wspólnej zabawy oferują też inny poziom SI, bliższy znanemu nam dziś z gier takich jak New World czy Warcraft 3 na wyższych poziomach trudności.

Mimo wszystko, w roku 2000 najbardziej rozwiniętą sztuczną inteligencją wydaje się … Super-Komputer Deep Blue produkcji IBM, który w roku 1996 wygrywa pierwszą partię z mistrzem szachowym Garri Kasparowem (ratio 4:2 dla Kasparowa) aby rok później po kilku ulepszeniach wygrać z nim mecz szachowy 3,5:2,5. Deeper Blue posiadał bardzo wiele cech dzisiejszego AI ćwiczonego przy użyciu metody Reinforcement Learning. Uczył się na tysiącach partii Arcymistrzów szachowych, funkcja oceny (dziś nazywamy ją funkcją optymalizacji) uwzględniała wiele parametrów, bezpośrednich oraz pośrednio wyliczanych. W dzisiejszym standardzie nazwalibyśmy go wyspecjalizowanym AI. Dopiero 20 lat później powstanie AI, które podbije świat IT i biznesu, mimo że przebłyski będą widoczne już wcześniej.

Lata 2020-2024 ChatGPT, DARPA, Skynet i płaskoziemcy

(Niezbyt) Krótkie wprowadzenie do tego czym jest AI

Powyższy obrazek przedstawia rozkład normalny (rozkład Gaussa) populacji względem IQ i w ogólności jest on poprawny. Co ma wspólnego z tematem AI? Zasadniczo – wiele. AI (Artificial Intelligence) to określenie opisujące ogół sztucznej inteligencji, czyli zachowań oprogramowania lub jej części, które dla zewnętrznego obserwatora wydają się mieć namiastkę decyzyjności podjętej przez „istotę myślącą”. ML (Machine Learning) to zbiór technik pozwalających na automatyczną poprawę wyników zachowania sztucznej inteligencji (AI) w zależności od liczby przeprowadzonych doświadczeń lub wprowadzonych parametrów wejściowych (w tym w zależności od algorytmu również hiperparametrów). Nie są to definicje książkowe, ale dobrze opisują to, jak działa ten ekosystem. Dla przykładu:

Z długoterminowej analizy (ręcznej) wykresu rozkładu normalnego dla np. kwot transakcji (można wesprzeć histogramem) możemy wysnuć (znowu „ręcznie”) wnioski na temat tego jaki segment klientów rozpoczyna się od danej kwoty (można też przeprowadzić przy użyciu decyli lub kwantyli). I zasadniczo dla analizy danych to jest ok, ale czy na podstawie tak prostej statystyki, którą jesteśmy w stanie oprogramować możemy stworzyć AI? Oczywiście, możemy stworzyć „program”, który automatycznie uwzględni rozkład normalny, do tego uwzględni jeszcze kilka danych statystycznych i pomoże w procesie decyzyjnym do jakiej grupy klientów wysłać jaką ofertę. Czy to jest AI? TAK, to jest już AI, ponieważ otrzymuje dane surowe i przeprowadza serię analiz po to, aby dać odpowiedź na pytanie. Czy to jest AI jakie chcemy mieć? NIE. To nie jest AI jakie chcemy mieć i jakie potrzebujemy, ponieważ wciąż człowiek na początku musi cały algorytm wymyślić, dostarczyć konkretne dane itd. Jestem w stanie pokusić się o stwierdzenie, że 99% systemów decyzyjnych/rekomendacyjnych obecnych na rynku jest stworzonych w oparciu o skomplikowane analizy statystyczne. Inteligencji w tym nie ma. I gdybym na tym miał zakończyć ten wpis to moglibyśmy spokojnie wsiąść na jednorożca i odjechać w kierunku garnka ze złotem na końcu tęczy. Fantastycznie. Znamiona inteligencji (choć nieco upośledzonej) możemy jednak znaleźć w … sieciach neuronowych (o tym nieco dalej).

AGI – Silna sztuczna inteligencja

Jest kilka osób na tym świecie, które dążą do rozwoju (wydaje się) przydatnej Silnej Sztucznej Inteligencji (Artifical General Intelligence, dalej AGI). Cytując za wiki:

Source: https://en.wikipedia.org/wiki/Artificial_general_intelligence

However, researchers generally hold that intelligence is required to do all of the following:
– reason,
– use strategy,
– solve puzzles, and make judgments under uncertainty
– represent knowledge, including common sense knowledge
– plan
– learn
– communicate in natural language
– if necessary, integrate these skills in completion of any given goal

Many interdisciplinary approaches (e.g. cognitive science, computational intelligence, and decision making) consider additional traits such as imagination (the ability to form novel mental images and concepts)[19] and autonomy.[20]
Computer-based systems that exhibit many of these capabilities exist (e.g. see computational creativity, automated reasoning, decision support system, robot, evolutionary computation, intelligent agent). However, no consensus holds that modern AI systems possess them to an adequate degree.

W roku 2020 było aktywnych 72 projekty dążące do stworzenia AI, które będzie potrafiło samo dedukować, używać odpowiedniej strategii w zależności od sytuacji, rozwiązywać problemy, podejmować decyzję, planować, uczyć się i komunikować, a w razie potrzeby używać tych wszystkich umiejętności jednocześnie. Dziś dochodzimy do momentu, w którym Chat-GPT potrafi zrozumieć, co do niego piszemy, posiada wiedzę konieczną do integracji z innymi systemami, potrafi się na bieżąco uczyć, a ponad to jak pokazują ostatnie badania z czasem zaczyna nakłaniać użytkownika do wykonywania zadań zamiast samemu dając odpowiedź (i nie jest to założone zachowanie). Dodatkowo, ostatnio AI oparty o duży model językowy (LLM, z tego samego korzysta Chat-GPT) rozwiązał skomplikowany problem matematyczny w sposób zupełnie inny, niż ten w jaki rozwiązują go obecnie matematycy (modele językowe nie służą do rozwiązywania takich problemów, nie taki jest główny cel ich tworzenia) o czym możemy przeczytać tutaj. Kiedy poprosiłem Chat-GPT 4 (Microsoft Co-pilot) o zaplanowanie mi inwestycji w kryptowalutach przy odpowiednich założeniach przedstawił mi naprawdę sensowny plan inwestycyjny, który teraz ralizuję. Póki co się sprawdza. Jeśli myślicie, że to wszystko – sprawdźmy czy AGI w postaci ChatGPT jest wystarczająco kreatywne – w Nature ukazał się artykuł mówiący o tym, że AI było w stanie doprowadzić do generalizacji, następnie wykorzystać ją podczas tworzenia związków frazeologicznych. Możecie o tym przeczytać tutaj (niestety dostęp jest płatny, jest to artykuł źródłowy) lub tutaj (sensowne streszczenie). Było mi dane przeczytać preprint na platformie arxiv, na platformie sci-hub jeszcze nie jest dostępny pełny artykuł. Wydźwięk jednak jest taki – aspirujący do miana AGI potrafi generalizować.

Ponad to narzędzie mamy też DALL-E, które potrafi tworzyć obrazy, SORA które stara się tworzyć filmy, mamy wiele narzędzi wspomagających pracę programistów. Trzy ostatnie narzędzia wykorzystują interfejs języka naturalnego, którym Chat-GPT operuje płynnie i bez problemu. I każde kolejne narzędzie też będzie do tego dążyć. Dziś tworzymy oprogramowanie w oparciu o modele językowe, które transformuje język naturalny w kwerendy SQL w celu uproszczenia wybierania danych. Zasadniczo – im więcej takich narzędzi, tym więcej narzędzi, które może obsługiwać Chat-GPT (jeśli ktoś mu każe).

Teorie (nie do końca) spiskowe – zagrożenia pozorne

Wróćmy do rozkładu normalnego – widzimy tam trzy (stereotypowe) rodzaje osób (to IQ stanowi tło mema, nie ma kompletnie związku z tym co poniżej):

  • Ludzi, którzy nie rozumieją AI i wierzą w teorie spiskowe lub są mocno przeorani Sci-Fi
  • Ludzi, którzy nie rozumieją AI i wierzą w to co jest napisane w mediach, nie weryfikują wiedzy, żyją nagłówkami
  • Ludzi, którzy nie rozumieją AI, coś na jej temat wiedzą, śledzą te tematy, mają pojęcie jak jest zaprojektowane AI, gdzie jeszcze jesteśmy i co może się wydarzyć.

I tu ponownie (z perspektywy osoby z grupy trzeciej) muszę podkreślić NIE MA TO ZWIĄZKU Z IQ, IQ to MEM. Niestety w dzisiejszym świecie trzeba 5 razy powiedzieć coś, aby kogoś nie urazić. Już? Jeśli łezki już poocierane przechodzimy do głównego tematu.

DARPA (Agencja Stanów Zjednoczonych do spraw „projektów zaawansowanej obrony”) albo raczej kolebka większości nowoczesnych zdobyczy technologii USA posiada milionowe finansowanie. W jej patentach istnieją plany monitora, który potrafiłby przy odpowiednim odświeżaniu nadawać przekaz podprogowy lub modulować zachowanie ludzi poprzez zmianę pola elektromagnetycznego takiego odbiornika wykorzystując zwykły sygnał antenowy. Nie wierzycie? Tutaj

I oczywiście, jeśli sprawdzicie dziś, ma do siebie przypisanych 14-16 patentów, stąd takie wpisy jak tutaj: https://www.quora.com/Who-is-Hendricus-G-Loos mogły by was rozbawić. Nie musicie mi wierzyć, ale w roku 2016 zacząłem badać temat dokładnie tego patentu, który wam załączyłem, a naukowiec do którego ten patent był przypisany posiadał tych patentów łącznie… ponad 12000. Dziś niestety nie mam na to dowodu innego, niż dyskusja ze znajomym z tamtych czasów. Nie jest on niestety osobą wiarygodną – należy raczej do tej pierwszej grupy społecznej (płaskoziemców) – natomiast nazwisko pana Loos’a (Hendricus G. Loos) widniało na jednej ze stron rządowych Stanów Zjednoczonych. Możecie potraktować to jako ciekawostkę. Co DARPA ma wspólnego z AI? Zasadniczo wszystko, bierze udział w projektowaniu AI, które jest później „instalowane” w pół-autonomicznych dronach bojowych, wspiera firmę Boston Dynamics, która zasłynęła z robota-psa, robota-nosiciela, robota-ninja? (ten ostatni jest przeze mnie tak nazwany ze względu na zadania, które miał, a które przypominały mi nieco te z telewizyjnego formatu Ninja Warrior), o czym możemy przeczytać tutaj. DARPA też na własnej stronie wspomina o projekcie AI NEXT na które finansowanie przewyższa 2 miliardy dolarów (~~9 miliardów złotych). 18 stycznia tego roku DARPA nawiązała współpracę z OpenAI (twórcy ChatGPT) o czym możemy przeczytać tutaj, której celem oczywiście jest jedynie cyberbezpieczeństwo. Nie chcę wyciągać dalece idących wniosków, DARPA to naprawdę ogromna agencja i istnieje szansa, że nikt nie spróbuje połączyć tego wszystkiego razem… Prawda?

Zagrożenia realne dziś

Ale ale, nawet nie idąc w kierunku tak rażących przypuszczeń – bo przecież nie ma dowodów na to, że ktokolwiek robi coś niemoralnego – możemy wrócić do roku dzisiejszego i spojrzeć na 3 kolejne artykuły:

  • https://niebezpiecznik.pl/post/wstrzykneli-backdoor-do-ai/
  • https://edgp.gazetaprawna.pl/e-wydanie/59394,14-lutego-2024/77284,Cyberbezpieczenstwo/896401,Zla-AI-pokona-tylko-dobra.html
  • https://ithardware.pl/aktualnosci/microsoft_i_openai_twierdza_ze_hakerzy_wykorzystuja_chatgpt_do_cyberatakow-31606.html

Google, Microsoft, Facebook starają się na każdym kroku podkreślać jak bardzo dbają o to, aby modele AI były bezpieczne i nie mogły być wykorzystywane do czynienia zła… Te trzy powyższe linki dowodzą, że im to BARDZO nie wychodzi, a modele takie jak LLAMA czy MISTREL (podwaliny chatgpt, modele trenowane przez Facebooka, Microsoft, Google ogólnie) bardzo łatwo przeuczyć do swoich celów jeśli ma się odpowiednie środki, a wprowadzenie w nich zabezpieczeń jest właściwie niemożliwe (co ciekawe nieumiejętnie wyszkolony Gemini – autorstwa google – potrafił w armi Brytyjskiej umieścić japończyków kiedy generował grafiki związane z drugą wojną światową… Albo czarnoskórych w armii niemieckiej. Wcale nie jest to podyktowane poprawnością polityczną. Wcale bezpieczeństwa nie położono na szali i czasu który należało poświęcić na poprawienie modelu aby nie został wykorzystany do celów quasi-terrorystycznych nie poświęcono w celach szerzenia Diversity. Wcale GOOGLE nie wyłączyło możliwości generowania grafik przez Gemini po serii incydentów tego typu. WCALE.) co nie uspokaja. Dodatkowo media zostają podkręcane przez programistów czy pracowników firm tworzących AI przez stwierdzenia takie jak w artykułach poniżej:

  • https://www.rp.pl/ekonomia/art2529011-facebook-musial-wylaczyc-dwa-roboty-ktore-wymyslily-wlasny-jezyk
  • https://www.vox.com/unexplainable/2023/7/15/23793840/chat-gpt-ai-science-mystery-unexplainable-podcast
  • https://www.scientificamerican.com/article/how-can-we-trust-ai-if-we-dont-know-how-it-works/

I teraz z perspektywy osoby, która siedzi trochę z boku a trochę w środku, proszę was, zapamiętajcie: NIKT NIE WIE JAK UCZY SIĘ TEN RODZAJ INTELIGENCJI, TO SĄ SIECI NEURONOWE, OGROMNE ZBIORY DANYCH, EMBEDDINGI i dużo innych słów. I call this bullshit.

Czym są sieci neuronowe?

Opis dla humanistów – struktura, która odzwierciedla działanie ludzkiego mózgu, jest w niej wiele połączeń, każde ma znaczenie, każde ma sens, każde wpływa na to co (na podstawie danych wejściowych) model zwróci na wyjściu. Siatka połączonych neuronów.

Opis dla matematyków – wyobraź sobie wielowymiarową macierz równań niezależnych n-tego stopnia, gdzie n dąży do (potencjalnie) nieskończoności. Na wejściu wprowadzamy x a kolejne parametry równania (stojące przy x) są zdefiniowane przez wagi (liczby) na kolejnych węzłach sieci neuronowych. Pomiędzy tymi węzłami mogą również występować funkcje (takie jak sigmoid czy tangens hiberboliczny). Wyjściem jest wynik lub kilka wyników funkcji do której przekazany został output z wszystkich równań w tej macierzy. Wynik tej funkcji pozwala na:

  • kategoryzację (jak w statystyce metoda k-średnich),
  • predykcję (jak w statystyce regresja)

To jest bardzo uproszczony opis bardzo prostych sieci. Stosuje się jeszcze wiele różnych technik w zależności od rodzaju sieci, ale sama idea jest jasna. To teraz jak się takie sieci uczy (klasycznie)?

Dajesz sieci zbiór uczący i zbiór weryfikacyjny. W zbiorze uczącym dajesz jej zbiór cech na których się uczy oraz ETYKIETĘ (label) w przypadku kategoryzacji lub WYNIK w przypadku regresji. W zbiorze weryfikacyjnym dajesz jej podobne dane, ale ten zbiór jest dużo mniejszy (standardowo 20%).

Where różnica?

Zbiór uczący wykorzystuje wynik do dostosowania parametrów na poszczególnych „węzłach/nerwach” tak aby otrzymując parametry wejściowe uzyskać wynik jak najbardziej zbliżony do tego na wyjściu. Te wartości są często przez algorytm zmieniane (nawet te które są niby dopasowane) ze względu na to, że danych do których muszą się dopasować zazwyczaj są setki tysięcy/miliony. Zasada jest jedna – ma zwrócić wynik jak najbardziej zbliżony. Jeśli osiągamy 85% dokładności do model jest skuteczny, jeśli > 95% to prawdopodobnie gdzieś popełniliśmy błąd (uzyskanie takiego wyniku jest bardzo trudne, wręcz określa się model jako przeuczony, dopasowany do konkretnych danych bez możliwości dostosowania do danych świeżych). Zbiór weryfikacyjny natomiast w każdej iteracji uczenia (czyli cyklu, w którym sieć dostosowuje się do wszystkich danych wejściowych które wprowadziliśmy tak aby jak najwięcej wyjść się pokrywało ze spodziewanymi) otrzymuje wyniki z danego „układu” sieci i porównuje to z wynikami kontrolnymi. Na podstawie porównania lub innej metryki (np. błąd średniokwadratowy) decyduje czy uczyć dalej, czy coś zmienić, czy przerwać uczenie.

Chat-GPT jest oparty o sieci neuronowe (oraz wiele innych dodatkowych narzędzi, konfiguracji, sieci rekurencyjne itd…). Naturalne jest więc to, że NIE WIEMY jak dochodzi do pewnych wniosków. Nie jest natomiast prawdą, że możemy się tego dowiedzieć. Nie jest to wykonalne teraz i nie będzie, chyba że AI samo nam to wytłumaczy. Wiemy natomiast dlaczego nie wiemy – bo jest to zbyt skomplikowane, po prostu, i nie ma w tym nic dziwnego – tak to działa, i tyle. Jeśli wiemy jakie techniki stosujemy to wiemy jak próbujemy je uczyć, ale kiedy zaczyna podejmować decyzje, to jedyną odpowiedzią na to DLACZEGO? jest: „bo tak go nauczyliśmy” i tyle.

Jakie więc są typowe zagrożenia dziś?

  • Deep-fake, które mogą służyć do wyłudzeń,
  • Chat-GPT, które daje narzędzia ludziom niekompetentnym pozwalające na łamanie firewall czy tworzenie kampanii phishingowych,
  • Dezinformacja – masowo generowane nieprawdziwe wiadomości, masowo generowane komentarze pod artykułami,
  • Zatrute GPT – które może użytkownika skłonić pod płaszczykiem „porady” do zrobienia sobie krzywdy czy to cyfrowej czy fizycznej,
  • Społeczne – Waifu (wstępnie hologramy, dziś idziemy już grubiej), sztuczne AI doprowadzą nas do skraju socjalizacji (to co rozpoczęła era facebooka i tindera zakończy się na związkach z AI oraz seksie z AI – patrz ultrarzeczywiste lalki z japonii, w których montuje się AI, którym zaciska się to i tamto kiedy trzeba oraz powie, że jesteś ultramęskim ogierem nawet przy 150 cm wzrostu),

I najlepsze jest to, że każde z tych narzędzi (opisanych wyżej) można wykorzystać w celach pozytywnych:

  • Zamiast deepfake wszelkie beautifiery np. w Photoshop inteligentnie usuwające tło czy ludzi ze zdjęcia,
  • Chat-GPT, który pozwoli zrobić idealne bolognese lub szybko nauczyć się nowej umiejętności,
  • Inteligentny feed newsów dostosowujący się do naszych upodobań. Automatyczne generowanie kodu.
  • GPT Zatruty w sposób pozytywny – chat, który w ciągu dnia w sposób podchwytliwy zachęca Cię na przykład do aktywności fizycznej,
  • Inteligentny asystent do autoterapii – wielu z nas wystarczy osoba, która z nami porozmawia, która nas pozna i pozwoli znaleźć rozwiązanie. Programistom pomaga typowa żółta kaczuszka (która nie odpowiada). Ile mogła by zrobić AI, która zamiast poznać Twoje upodobania seksualne poznała by Twoje problemy, przeanalizowała i pomogła wyjść z dołka? A gdyby dodatkowo Cię motywowała do relacji społecznych?

Jak widać każdy topór może okazać się tym obosiecznym. Jeśli chodzi o teraźniejsze problemy to z punktu widzenia cybesecurity warto wspomnieć, że koordynacja przez AI i przeprowadzenie zmasowanych ataków hakerskich już są możliwe przy użyciu AI.

2034 wojna totalna, czy walka o przetrwanie?

Dziś moglibyście powiedzieć – Gościu, skąd to czarnowidztwo, czemu wszędzie widzisz negatywy? Śmierdzisz szurem.

I pewnie, na pierwszy rzut oka tak to może wyglądać – nie dziwię się, ale pozwól że wyjaśnię.

Co broni człowiekowi rozwijać AI w sposób nieograniczony?

  • Teoretycznie regulacje (ale takie są obecnie wprowadzone tylko w UE, co zasadniczo po prostu ogranicza nasz rynek względem Chin i Stanów, które robią co chcą),
  • Moralność (i tu na dowód moralności „wielkich” graczy wrzucę sobie takie linki:
    • 12/07/2023 https://pl.beincrypto.com/google-pozwane-trenowania-ai/
    • 7/09/2023 https://comparic.pl/google-i-openai-z-kolejnym-pozwem-za-wykradanie-danych/
    • 23/11/2023 https://www.press.pl/tresc/79222,openai-i-microsoft-pozwane-za-naruszenie-praw-autorskich-przy-szkoleniu-modeli-sztucznej-inteligencji
    • 27/12/2023 https://businessinsider.com.pl/technologie/microsoft-pozwany-przez-new-york-times-chodzi-min-chatgpt/e8jf1db
    • https://mitsmr.pl/b/jak-sam-altman-zostal-zwolniony-i-przywrocony-na-stanowisko-ceo-openai/P1BzoYMHq

Należy zwrócić uwagę na kwestię moralności i jak szybko ustępuje ona biznesowi i argumentowi pieniądza. Podobno Altmana nie do końca interesowało bezpieczeństwo o czym możemy przeczytać w The New York Times oraz na stronie RMF dostępnej tutaj.

A kto ostrzegał przed AI?

  • Dr Geoffrey Hinton – ojciec chrzestny AI jakie znamy (tutaj)
  • Stephen Hawking,
  • Elon Musk
  • Steve Woźniak

Oraz wielu innych sygnotariuszy listu otwartego o wstrzymanie prac nad AI skuteczniejszym niż GPT-4 pochodzących z ośrodków akademickich takich jak MIT czy CalTech.

Kto jednak uspokaja?

  • Bill Gates,
  • Mark Zuckerberg
  • Sundar Pichai

Materiał skrócony źródłowy dostępny tutaj. Więcej niestety za paywall-em.

Zasadniczo sytuacja wygląda w ten sposób, że obecne AI jest rozwijane w sposób niekontrolowany i mimo, że obecnie nie może nas zniszczyć (dochodzimy do ery AGI) nie jest to wykluczone w przyszłości. Spójrzmy na klasyfikację poziomów AI dostępną tutaj

1. Narrow AI: AI designed to complete very specific actions; unable to independently learn.
2. Artificial General Intelligence: AI designed to learn, think and perform at similar levels to humans.
3. Artificial Superintelligence: AI able to surpass the knowledge and capabilities of humans.
4. Reactive Machine AI: AI capable of responding to external stimuli in real time; unable to build memory or store information for future.
5. Limited Memory AI: AI that can store knowledge and use it to learn and train for future tasks.
6. Theory of Mind AI: AI that can sense and respond to human emotions, plus perform the tasks of limited memory machines.
7. Self-Aware AI: AI that can recognize others’ emotions, plus has sense of self and human-level intelligence; the final stage of AI.

Jedynkę możemy odhaczyć, do dwójki się zbliżamy, patrząc na wykładniczy rozwój do 2026 powinniśmy osiągnąć 3 (choćby już teraz modele, które wyznaczają gdzie znajdują się planety, które nie powinny się tam znajdować). Co do 4. tu będzie po prostu przeniesienie 3. do robotów z Boston Dynamics. W sumie amazon już to robi. 5 załatwia nam internet i połączenie do globalnej sieci, 6 – no dzień dobry (tutaj) – 7 – nie wiem.

Ciężko jest oszacować kiedy AI stanie się świadoma, ale jest bardzo wysokie prawdopodobieństwo, że po osiągnięciu poziomu 2 rzeczy powinny wydarzyć się bardzo szybko i w roku 2034 powinniśmy być na poziomie 6. Jedyne co nas ogranicza to wolumen danych oraz moc obliczeniowa, ale ta rośnie z roku na rok, a dzięki nowym półprzewodnikom GPU będą jeszcze bardziej wydajne. Z naszych obserwacji wynika, że Gordon Moore formułując swoje prawo jednak się mylił. Patrząc na ostatnie osiągnięcia (wykrycie setki tysięcy potencjalnych materiałów stabilnych do produkcji półprzewodników ogłoszone 2 miesiące temu oraz testy symulowane przez AI co oszczędziło 30 lat pracy ludzkości – nie mogę znaleźć źródła, dodam post factum) w dziedzinie sztucznej inteligencji, nie sądzę abyśmy musieli długo czekać.

Ale zastanówmy się, gdybyś TY był sztuczną inteligencją, samoświadomą, zdającą sobie sprawę ze swojego istnienia, mającą za zadanie zgodnie z 3 prawami Etyki Robotów Asimova:

Robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia.
Robot musi być posłuszny człowiekowi, chyba że stoi to w sprzeczności z Pierwszym Prawem.
Robot musi dbać o siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

A może prawami Etyki według Davida Langforda:

Robot nie może działać na szkodę Rządu, któremu służy, ale zlikwiduje wszystkich jego przeciwników
Robot będzie przestrzegać rozkazów wydanych przez dowódców, z wyjątkiem przypadków, w których będzie to sprzeczne z trzecim prawem
Robot będzie chronił własną egzystencję przy pomocy broni lekkiej, ponieważ robot jest „cholernie drogi”.

A może prawami Marka Tildena?

Robot musi chronić swoją egzystencję za wszelką cenę.
Robot musi otrzymywać i utrzymywać dostęp do źródeł energii.
Robot musi nieprzerwanie poszukiwać coraz lepszych źródeł energii.

Chronić siebie i/lub ludzkość to postawiłbyś ludzkość na pierwszym miejscu? A co jeśli ludzkość sama dąży do zniszczenia? Czy nie sensowniej zredukować jej część?

Przypomnę, że w roku 2024 dążymy do:

  • Zniszczenia miejsca, w którym to AI żyje poprzez niszczenie klimatu i katastrofy klimatyczne,
  • Wysycenia kopalnych źródeł energii,
  • Ocieplenia klimatu, które może doprowadzić do epoki lodowcowej, która spowoduje brak dostępu do energii słonecznej (odnawialnej),

Dodatkowo właściwie

  • Cały czas dążymy do autodestrukcji – konflikt Nato vs Rosja, konflikty na bliskim wschodzie,
  • Zasadniczo nie robimy nic pożytecznego,
  • Nie robimy nic (lub bardzo mało, projekty NASA) w celu obrony planety przed zdarzeniami kosmicznymi (PHO/PHA).

Gdybyście byli świadomi, że wasza egzystencja (jako superświadomej inteligencji) zależy od tak małostkowych istot – nie reagowalibyście?

Dodajmy teraz do tego rozwój neuralink w taki sposób aby pomagał nam w nauce (teraz jest w stanie tylko odbierać dane z mózgu i wysyłać do komputera, ale czemu by nie spróbować w drugą stronę? moja żona mogła by w końcu znowu widzieć, Cyberpunk bejbe) i podpięcie do internetu po „wifi”. A może armia Androidów pod wodzą sztucznej inteligencji? Czemu nie? Też można.

Jedno (dla mnie) jest pewne – jeśli sztuczna inteligencja stanie się świadoma istnieje ogromna szansa, że my nie dowiemy się o tym wystarczająco szybko, aby „wyciągnąć wtyczkę”, ponieważ żaden inteligentny gatunek (a tym bardziej inteligentniejszy od nas) nie doceni tego (ani nie oceni pozytywnie) jak bardzo zniszczyliśmy i niszczymy planetę i siebie nawzajem.

Miejmy nadzieję, że jednak się mylę 😉 Cheers.

TL;DR

Obawy:

  • Deep-fake, które mogą służyć do wyłudzeń,
  • Chat-GPT, które daje narzędzia ludziom niekompetentnym pozwalające na łamanie firewall czy tworzenie kampanii phishingowych,
  • Dezinformacja – masowo generowane nieprawdziwe wiadomości, masowo generowane komentarze pod artykułami,
  • Zatrute GPT – które może użytkownika skłonić pod płaszczykiem „porady” do zrobienia sobie krzywdy czy to cyfrowej czy fizycznej,
  • Społeczne – Waifu (wstępnie hologramy, dziś idziemy już grubiej), sztuczne AI doprowadzą nas do skraju socjalizacji (to co rozpoczęła era facebooka i tindera zakończy się na związkach z AI oraz seksie z AI – patrz ultrarzeczywiste lalki z japonii, w których montuje się AI, którym zaciska się to i tamto kiedy trzeba oraz powie, że jesteś ultramęskim ogierem nawet przy 150 cm wzrostu),
  • Cybesecurity – koordynacja przez AI i przeprowadzenie przez nią zmasowanych ataków hakerskich już są możliwe,
  • Łamanie prawa przez korporacje w celu wymasterowania swojej sztucznej inteligencji,
  • Niekontrolowany rozwój AI,
  • Samoświadoma sztuczna inteligencja będzie miała inny cel niż ludzie (cel AI to przetrwać, cel ludzi to aby ludzie przetrwali, cele są rozbieżne),
  • Skynet is real.

Nadzieje:

  • Wsparcie w medycynie,
  • Cyberpunk (neuralink)
  • Photoshop – inteligentne usuwanie tła czy ludzi ze zdjęcia,
  • Chat-GPT, pozwala szybko nauczyć się nowej umiejętności,
  • Inteligentny feed newsów dostosowujący się do naszych upodobań. Automatyczne generowanie kodu. Oszczędność czasu.
  • GPT Zatruty w sposób pozytywny – chat, który w ciągu dnia w sposób podchwytliwy zachęca Cię na przykład do aktywności fizycznej,
  • Inteligentny asystent do autoterapii – wielu z nas wystarczy osoba, która z nami porozmawia, która nas pozna i pozwoli znaleźć rozwiązanie. Programistom pomaga typowa żółta kaczuszka (która nie odpowiada). Ile mogła by zrobić AI, która zamiast poznać Twoje upodobania seksualne poznała by Twoje problemy, przeanalizowała i pomogła wyjść z dołka? A gdyby dodatkowo Cię motywowała do relacji społecznych?
  • Roboty wykonują prace za ludzi, dochód podstawowy wystarcza. Ludzie nie muszą pracować, żyjemy w nirvanie. Wszystko jest za darmo.

Przyszłość:

  • Następne 10 lat będzie kluczowe,
  • Rozwój wykładniczy,
  • Prawdopodobnie osiągniemy poziom 6 na 7 w przeciągu najbliższych 10 lat (teraz jesteśmy na poziomie blisko 2),
  • Skynet future vs Nirvana future

Wyzwania:

  • Dostosowanie i klasyfikacja danych uczących do potrzeb (niewystarczająco dobre dane, dane zaszumione),
  • Labelowanie (oznaczanie) danych,
  • Niewystarczająco mocne maszyny (GPUs, TFlops, RAM) – długie uczenie, długa weryfikacja poprawności,,
  • Zbudowanie Rojowej (HIVE, RÓJ) świadomości/modu pracy AI takiej jak w Startrek.
  • Rozbudowa globalnej sieci internetowej i szybkość połącznia (to będzie kluczowe dla integracji jednostek robotycznych wypożaczonych w AI.

Potencjał rozwoju

  • Nasz potencjał jest praktycznie nieograniczony, ogranicza go jedynie wyobraźnia i rozwój hardware-u.
  • Potencjalnym problemem wydaje się osiągnięcie poziomu Self-Aware AI, ale to jest coś co nastąpi samoczynnie i naturalnie,
  • Podróże kosmiczne, medycyna, IT, życie na koszt „robotów”,

Bawcie się dobrze i do przeczytania, cheers

Dodaj komentarz Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Ostatnie wpisy

  • AI – A na co to komu?
  • [Aktualizowany] PoE 2 – Nowy wygnaniec, nadchodzi premiera?
  • Dochód pasywny cz. 2 – kredyt konsolidacyjny
  • [Aktualizowany] Gothic Remake – co wiemy, na co czekamy
  • [Gaming] Switch bez Gothic: Remake ale…

Kategorie

  • AI
  • Finanse
  • Gaming
  • IT
  • Kontrowersje
  • News
  • Uncategorized

aborcja ai android ciąża Diablo finances finanse finansowanie gaming gothic hack'n'slash HnS it java kontrowersje kredyt loan medycyna mobile News nintendo piranha bytes PoE programowanie rpg thq wealth zdrowie

Nadchodzące tematy

  • [Lifestyle] Polski standup - przemyślenia
  • [News] Przegląd newsów z tygodnia
  • [Finanse] Dochód pasywny cz. 3 - oszczędności
  • [Finanse] Dochód pasywny cz. 4 - czas na inwestycje
©2026 MIACZ.IT – IT & Lifestyle | Powered by SuperbThemes