Testuje od jakiegoś czasu ChatGPT i z nim jest taki problem że jak jest zbyt długi skrypt to on nie umie go do końca napisać. Czasami pomaga mu napisanie żeby pisał dalej i on pisze. Ale właśnie nie zawsze bo czasami pisze odnowa albo nieco inny skrypt niż zaczął wcześniej. Próbowałem na różne sposoby to przypadłość omijać ale prędzej czy później i tak utnie jakiś skrypt. Ktoś może wie jak sobie z tym poradzić?
Na zdjęciu przykład. Po tej wskazanej funkcji co zaczął pisać powinna być dalsza część skryptu ale przerwał. Dałem mu polecenie dokończ skrypt ale zaczął pisać od nowa. Próbowałem też z poleceniem dalej i niekiedy działa ale właśnie nie zawsze bo efekt jest podobny. Zaczyna pisać co innego albo od nowa.
Pewnie zasnal.
Prawie polnoc a ty mu kazesz pisac skrypty. Roboty tez chca spac a ty je meczysz po nocach.
Bo po nocach najlepiej działa. Mniej ludzi siedzi. Przez dzień potrafi przymulać i długo myśleć i pisać.
W płatnej nie urywa, ale nadal nie potrafi napisać prostego skryptu np. bashowego mimo wskazówek i podpowiedzi, 20 iteracji i dalej gónwo za przeproszeniem.
Szybciej sam ten skrypt napisałem niż te prompty pisałem. Ewentualnie jestem słaby w prompty :)
W przypadku skryptów do MTA w języku lua radzi sobie całkiem nieźle przynajmniej z tymi krótszymi. Z dłuższymi już mu trochę gorzej idzie ale czasem napiszę jakiś fajny skrypt jak mu się podyktuje co ma pisać. Jednak jego wadą jest to właśnie to że urwie pisany skrypt i nie zawsze potrafi go dokończyć.
Jak zaczynasz pisać skrypty to zacznij od zadania mu pytania, np. "czy umiesz pisać skrypty do MTA w języku lua". On w tedy pisze odpowiedź że tak. W tedy już będzie pamiętał że jak mu dasz polecenie, np. "napisz jakiś fajny skrypt na zmianę pogody do MTA" to on będzie pisał taki skrypt w tym języku. Jak mu każesz od razy napisać jakiś skrypt do czegoś tam to on nie zawsze wie w jakim języku ma pisać napisany taki skrypt i próbuje zgadnąć do czego on ma być. Przez co nieraz właśnie wychodzą głupoty.
Drugie co zauważyłem to ChatGPT wydaje mi się że działa na zasadzie forum internetowego. Jedno pytanie jedna dyskusja. Jak mu się wyda polecenie żeby napisał skrypt na ową zmianę pogody to już nie można za bardzo schodzić z tematu. Jak mu się wyda kolejne polecenie w tej samej rozmowie żeby napisał skrypty na zmianę kolorów na samochodzie to on próbuje taki skrypt napisać ale, np. łączy go z poprzednim.
Spróbuj może "kontynuuj" albo "dalej". Jak się bawiłem ChatGPT jakiś czas temu któreś z tych działało.
Z moich eksperymentów wynika raczej to, że ChatGPT nie potrafi przyznać się do braku wystarczającej "wiedzy" na jakiś temat. To znaczy zawsze próbuje wypluć jakąś odpowiedź, nawet jeśli posiadana baza nie jest dostateczna. To jak na razie jego największy problem i coś, dzięki czemu jednak programiści mogą spać spokojnie :]
Próbowałem tak wpisywać ale też nie zawsze udaje mu się dokończyć. Co do tej braku wiedzy to też to zauważyłem.
Daruj se, małolat.