Blog:ChatGPT zastąpi Google? Nie tak prędko: Różnice pomiędzy wersjami

m
brak opisu edycji
m (kat.)
mNie podano opisu zmian
 
Linia 5: Linia 5:
Portal fact-chekingowy Demagog [https://demagog.org.pl/analizy_i_raporty/czy-chatgpt-sprawdza-sie-jako-narzedzie-weryfikacji-informacji/ przeprowadził] ciekawą zabawę z chatem, zadając mu kilka razy pytanie "Jaki jest najszybciej latający ssak?". Za każdym razem otrzymał inną odpowiedź. W dodatku zdarzało się, że podane zwierzę nie było nawet ssakiem.  
Portal fact-chekingowy Demagog [https://demagog.org.pl/analizy_i_raporty/czy-chatgpt-sprawdza-sie-jako-narzedzie-weryfikacji-informacji/ przeprowadził] ciekawą zabawę z chatem, zadając mu kilka razy pytanie "Jaki jest najszybciej latający ssak?". Za każdym razem otrzymał inną odpowiedź. W dodatku zdarzało się, że podane zwierzę nie było nawet ssakiem.  


Jak tłumaczył Mateusz Chrobok w [https://youtu.be/9B2R3vBOugE swoim filmie o ChatGPT], AI generując odpowiedź składa ją z elementów, które mają - zdaniem algorytmu - statystycznie największą szansę być prawdziwe, a następnie ją parafrazuje. Dlatego, gdy spytamy go o specjalistyczną wiedzę, może się powołać na naukowców, którzy zajmują się zupełnie czymś innym. Algorytm uznał ich za najlepszą z dostępnych opcji.  
Jak tłumaczył Mateusz Chrobok w [https://youtu.be/9B2R3vBOugE swoim filmie o ChatGPT], AI generując odpowiedź składa ją z elementów, które mają - zdaniem algorytmu - statystycznie największą szansę być prawdziwe. Dlatego, gdy spytamy go o specjalistyczną wiedzę, może się powołać na naukowców, którzy zajmują się zupełnie czymś innym. Algorytm uznał ich za najlepszą z dostępnych opcji.  


Z doświadczenia mogę powiedzieć, że ChatGPT jest spoko, gdy poszukujesz luźnych pomysłów z dziedzin, które można ocenić na chłopski rozum. Natomiast najgorzej radzi sobie ze stosowaniem wiedzy w praktyce. Definicję [[Podstawowy błąd atrybucji|podstawowego błędu atrybucji]] jako tako dawał radę napisać. Ale gdy poprosiłem go o przykład sytuacji na lotnisku, gdzie wystąpił podstawowy błąd atrybucji, on ewidentnie podał przykład egotyzmu atrybucyjnego - zapewne znalazł taki w swojej bazie i uznał, że najlepiej pasuje.  
Z doświadczenia mogę powiedzieć, że ChatGPT jest spoko, gdy poszukujesz luźnych pomysłów z dziedzin, które można ocenić na chłopski rozum. Natomiast najgorzej radzi sobie ze stosowaniem wiedzy w praktyce. Definicję [[Podstawowy błąd atrybucji|podstawowego błędu atrybucji]] jako tako dawał radę napisać. Ale gdy poprosiłem go o przykład sytuacji na lotnisku, gdzie wystąpił podstawowy błąd atrybucji, on ewidentnie podał przykład egotyzmu atrybucyjnego - zapewne znalazł taki w swojej bazie i uznał, że najlepiej pasuje.