EA chce, aby generatywne AI było jednym z fundamentów biznesu firmy
Wygląda na to, że ewolucja na naszej planecie dotarła do przełomowego punktu. Od tej pory główny wyścig odbędzie się pomiędzy AI, zarządami korpo i ich inwestorami. Patrząc na tendencję wykładniczą tego pierwszego i liniowy spadek dwóch pozostałych, to chyba stanę się ultra-entuzjastą rozwoju AI, bo jedynie tu jest jakaś szansa na ocalenie naszej cywilizacji.
To było że taka myszka póki co to tylko chwyt marketingowy przed premierą swoich nowych urządzeń żeby o sobie przypomnieć
Najzabawniejsze w tym jest to, że dzisiaj AI prędzej zastąpi menadżera średniego szczebla niż projektanta poziomów, programistę itd. Ale jakoś menażerowie średniego szczebla nie widza zagrożenia dla siebie. Jak zauważą to proces wdrażania AI może zwolnić znacząco.
Tutaj prześmiewczy wariant:
https://www.youtube.com/watch?v=WCZt4mCcCV8
Za parę lat, to nawet 'średni programista" nie będzie potrzebny. Chyba tylko ci z najwyższej półki.
Słyszę to od 10 lat.
Kwestia jest taka, że łatwiej zastąpić księgowych, przedstawicieli handlowych, menadżerów, HRów, obsługi klienta, pisarzy, grafików, analityków finansowych/giełdowych, maklerów, finansistów, radców prawnych, kogokolwiek kto pracuje z tekstem, kierowców itd.
Jednak podstawowym kryterium wcale nie są tutaj możliwości AI a kwestia zaufania. Czy zaufasz, że AI zrobi wszystko jak należy? Że nie wrzuci w twój kod bakcdora dla jej właścicieli? Że nie powieli złych praktyk? To dokładnie ta sama kwestia co z autonomicznymi się samochodami. Technologia est gotowa, ale problem stanowią problemy z odpowiedzialnością, zaufaniem, kwestie prawne itd. Kto będzie odpowiadać za ewentualne szkody?
Próbowałem wykorzystać trochę AI do generowania kodu. Do unit testów spoko, ale w wypadku jakiejkolwiek bardziej złożonej kwestii to napisanie prompta w taki sposób by AI zrozumiało co ma zrobić zajmowało mi znacznie więcej czasu niż napisanie tego kodu. Bo praca programisty to w połowie (minimum) dochodzenie co autor miał na myśli i czy to co miał na myśli to to czego potrzebuje.
Łatwiej, łatwiej, ale za kilka lat to się zmieni. Dziś AI pisze krótkie skrypty na dwie strony może. I to trzeba dzielić na mniejsze kroczki, bo inaczej się pogóbi po prostu. Jednak, nawet dziś takie generowanie potrafi znacznie przyspieszyć i ułatwić programistom wiele czasu. Już nie muszą pisać wszystkiego od zera.
Niby tak, ale by napisał sensowny prompt potrzebujesz dalej programisty. Nie ma szans by laik napisał tak by to działało.
No i ktoś to musi sprawdzać. Przykładowo, ostatnio była niezła afera. Otóż ChatGPT generując kod wymyślał sobie nieistniejące biblioteki. Na pierwszy rzut oka nic strasznego, ot kod nie zadziała. Ale ponieważ się powtarzały ktoś wpadł na pomysł wrzucenia ich i przez kilka dni z npma zaciągało paczki z backdorem. I teraz mamy wesołą sytuację, bo OpenAI zastrzega sobie brak odpowiedzialności od wygenerowanych odpowiedzi.
Póki ten kod generuje programista tak on odpowiada za jego sprawdzenie, ale jak go zabraknie i AI będzie generowało większe części systemu to kto będzie ponosił odpowiedzialność? Dostawcy AI zrobią wszystko by jej nie ponosić bo nie są stanie przewidzieć co ich produkt stworzy.
by napisał sensowny prompt potrzebujesz dalej programisty.
To zależy. Testowałem na Pythonie, skrypty bat , oraz Powershell i pisze skrypty od ręki, czasem trzeba debugować, ale to też potrafi do pewnego stopinia - potrafi poprawiać swoje błędy. Fakt, czasem potrafi zawiesić się , ale wtedy zaczynasz od nowa.
Programistą nie jestem, ale dzięki AI robię rzeczy, o których 2 lata temu mogłem tylko pomarzyć. Ważne że te skrypty działają, i robią to, co chciałem. Programisty do tego nie potrzebowałem...
Cygi Dzięki za literówkę. Chociaż do pisania nie używam AI...
Proste skrypty, to spoko. Ale dalej operujemy na poziomie prostych rzeczy. to trochę jakby zakładać, ze skoro AI potrafi napisać tekst brzmiący jak człowiek to możemy zwolnić wszystkie osoby piszące jakiekolwiek teksty od prawników, przez dziennikarzy, pisarzy po urzędników, audytorów itd. No bo przecież oni tylko piszą tekst a AI też to potrafi i nawet brzmi podobnie.
Tylko jak przychodzi mi do wytłumaczenia Chatowi GPT jak ma działać dana klasa, to nagle muszę w opisie wyprodukować 3x tyle tekstu co ma jej implementacja by zrozumiał.
muszę w opisie wyprodukować 3x tyle tekstu co ma jej implementacja by zrozumiał.
Zależy z jakiej perspektywy na to patrzeć. Jest to narzędzie, potężne, ale samo się nie zrobi. By napisać te skrypty, czasem trzeba po 30 razy wałkować w koło. Taki kod można posklejać, jakby coś.
Jako przeciętny użytkownik, ja tam jestem wniebowzięty. Mam spersonalizowane skrypty, o jakich marzyłem. Do własnych potrzeb i chyba o to w tym chodzi. I to ile po drodze można się dowiedzieć. AI proponuje rozwiązania, o których nie miałem nawet pojęcia.
Jest jeszcze taka kwestia, że zmniejsza to zapotrzebowanie na wiele usług, nie tylko programistów.
Tylko, ze teraz wchodzimy na grunt problemów nie technicznych a prawnych.
Proste pytanie, jeżeli AI generuje kod to kto odpowiada za związane z nim problemy i ewentualne straty?
Ten sam case co z samochodami autonomicznymi. My nie mamy w pełni autonomicznych pojazdów dlatego, że nie potrafimy ich zbudować a dlatego, że nie potrafimy odpowiedzieć na pytanie: kto ponosi winę za spowodowany wypadek? Właściciel? Producent samochodu? Producent oprogramowania?
AI:
- programy, które nie działają
- obrazy, które rozpoznajesz po stylu
- książki, których nikt nie czyta
- filmy, które wyglądają jak chory sen na kwasie
Na razie generatywne modele mają dużo problemów, między innymi zaczynają kopiować same siebie i głupieć. To jest potencjalnie fajne narzędzie, ale jest nadużywane i faktycznie produktywne tylko w niektórych gałęziach. Na to wszystko wróci blockchain w glorii i chwale, oferując certyfikaty "handmade", bo wytwór generatywny, maszynowy, będzie uznawany za ersatz.
Ale w chmurze właśnie odpowiedzialność jest jasno określona. To jedna z jej największych zalet. Tutaj dostawca usług bierze za nie odpowiedzialność, w wypadku modeli AI nie.
Do póki firmy jak OpeAI nie będą gotowe wziąć odpowiedzialności za twórczość AI tak długo nie wyjdzie to poza narzędzie wspomagające.
z autonomicznymi samochodami bedzie tak samo tylko musi jeszcze wzrosnac ich niezawodnosc
Ich niezawodność dorównuje żywym kierowcom. Popełniają głupie błędy, ale analogowi kierowcy też.
EA ma F1 i piłkę. Prosta sytuacja, robisz modele z udziałem ai i tworzysz cyfrowe odpowiedniki prawdziwych zawodników. Czujesz, że ścigasz się z Alonso i możesz zostać objechany inaczej niż z np Magnussenem, z nim walka jest bardziej niebezpieczna. W piłce podobnie, taktyka i style gry, inaczej zagrasz z City, inaczej z RKS Chuwdu. Kopalnia na prawdę przełomowych mechanik.
I tu wchodzi korpo całe na biało i wszystko w pizdu…
tak by zrobili owszem ale ze 20 lat temu. teraz korporacje nigdy tego nie zrobia albo wypacza ten system tak bardzo, ze nic sensownego z tego nie bedzie bo gra ma byc latwa i przystepna dla WSZYSTKICH bo hajs ma sie zgadzac. aty tu mowisz o AI rznietym na zywca z takiego Ronaldo czy Messiego, ktorzy by objechali w Fifke 99% populacji graczy :D
Co w tym dziwnego, nowe statsy i paczki do FIFY nawet AI spokojnie ogarnie. Do tego losowo pozmienia jakieś współczynniki w kodzie, żeby kopacze ruszali się nieco inaczej/przeciwnik AI grał mniej/bardziej dokładnie lub wolniej/szybciej - i gotowe :)
Codemasters i tak pewnie jest do zamknięcia, wiec z nowymi WRC i F1 nie będzie problemu, bo po prostu znikną z oferty.
Jak jeszcze rok temu, pisząc te same prompty męczyłem po kilkadziesiąt razy, teraz czasem wystarczy kilka do kilkunastu, by wygernerować skrypt na kilka stron. Szkoda, że są ograniczenia, co do liczby znaków w odpowiedzi, bo czasem ucina odpowiedź. Niby da się obejść ale znacznie ogranicza.
Programistów w pełni nigdy nie zastąpi. Po prostu zrobi czystkę i w pewien sposób skonsoliduje masę w jeden klocek.