ChatGPT, czatgiepete,... wszędzie go ostatnio pełno, co jest oczywiście zrozumiałe. AI to rewolucja o znaczeniu fundamentalnym dla przyszłości ludzkości. Niby nic zaskakującego, bo przecież nauka i literatura miały wiele czasu, żeby nas z jej nadejściem oswoić. Mimo to - szok, niedowierzanie, dezorientacja (przy jednoczesnej ekscytacji), które widzę w oczach wielu ludzi, są bardzo wymowne. AI to transformacja, która wprowadzi nas w nowy wymiar. Pytanie brzmi, czy ten świat będzie dla ludzi lepszy, czy gorszy? Zobaczymy. Ten wpis jednak nie będzie o tym.
W zasadzie GPT używam od blisko roku do bardzo różnych zastosowań - od brainstormingu nt nazw, przez generowanie tekstów (na produkty, do opisów, etc.), aż po szukanie pomysłów strategicznych. Wczoraj zastosowałem GPT pierwszy raz do czegoś zupełnie innego - do rozwiązania problemu czysto programistycznego.
Nie wiem, czy pamiętacie, ale cały trzon produkcyjny Astrography napędza mój własny system automatyzacji (JobFlow), który w dużym skrócie zamienia zamówienie klienta w gotowe zadania dla drukarek (tworząc w locie pliki z logiem, tekstem, marginesami, etc.) oraz zajmuje się raportowaniem (od kontroli ilości surowców potrzebnych do wyprodukowania zamówień, aż po rozliczanie i raportowanie artystów).
Aplikacja cały czas musi być rozwijana, bo co chwilę coś się w procesie zmienia, albo po prostu odkrywamy kolejny skrajny przypadek. To dla mnie jest o tyle wartościowe, że dzięki temu mogę uczyć się wiele nowych kwestii w programowaniu, do tego w realnych przypadkach, podczas rozwiązywania prawdziwych problemów. Jest to jeden z ważniejszych pozytywów dających mi satysfakcję z rozwijania Astrography.
Do tej pory wszystkie te programistyczne wyzwanie rozwiązywałem poprzez dosyć głębokie badanie zjawiska. Często pomagał mi w tym stackoverflow. Ani razu się jednak nie zdarzyło, żebym był w stanie zaimplementować gotowe rozwiązanie - poprzez bezmózgowe skopiowanie kodu. Zawsze trzeba było zrozumieć ten kod, zastanowić się jak działa i w kreatywny sposób zaimplementować go do swojej aplikacji.
To zjawisko odpowiada za znaczną część mojej programistycznej edukacji.
Tym razem było jednak inaczej. AI dała mi bardzo dobre, gotowe rozwiązanie, napisała kod funkcji, oraz obmyśliła bardzo ciekawą i sprytną formułę regex (przy parsowaniu nazw plików, nazw produktów, latające w różnych API). Szacunek.
Problem tylko w tym, że z braku czasu szybko skopiowałem kod do swojego JobFlow i... voila. Nie poświęciłem czasu na jego analizę. Przetestowałem tylko, czy działa. Wrzuciłem kilka procedur testowych i tyle.
To też oznacza, że nic, zupełnie nic się nie nauczyłem. No może poza promptem do AI.
I teraz możemy się razem zastanowić, czy to dobrze, czy źle. Z jednej strony dzięki AI mogłem szybciej rozwiązać problem wpływający na wydajność produkcji w firmie. Z drugiej - utraciłem możliwość pozyskania nowej wiedzy i doświadczenia (nic nie przybyło w mojej neuronowej sieci).
Co może wynikać z faktu, że w przyszłości uczyć będziemy AI, nie siebie? AI będzie coraz mądrzejsza, my coraz lżejsi (w masie mózgu).
Nie znam odpowiedzi na to pytanie. Mam tylko intuicyjny strach, że znowu stajemy przed technologią, która niesie ze sobą potencjalne zagrożenie egzystencjonalne. Zupełnie jednak inne, niż pokazywały filmy SciFi. To nie roboty nas wystrzelają, ale po prostu utracimy wszystkie cechy, które stanowiły o naszej przewadze ewolucyjnej (w tym inteligencja kognitywna). Nawet system edykacji stał się całkowicie bezbronny w obliczu hackowania jego słabości przez AI (dzieciaki już w tej chwili bezmyślnie rozwiązaują za jego pomocą prace domowe, "piszą" wypracowania, i wiele, wiele więcej...).
Ludzie zawsze się bali, choć historia uczy, że zawsze jakoś sobie radziliśmy. Miejmy nadzieję, że tym razem też tak będzie.
PS. AI napisała kilka paragrafów tego wpisu, wymyśliła do niego tytuł, oraz narysowała ilustrację, która zdobi jego okładkę.