Lucie nije prošla
Propao francuski pokušaj kopije ChatGPT-a
Tekst članka se nastavlja ispod banera
Otvoreni AI modeli kineskog DeepSeeka izazvali su previranja u industriji umjetne inteligencije vrijednoj milijarde dolara zbog svoje isplative alternative OpenAI-jevom modelu o1.
U međuvremenu, francuski odgovor na ChatGPT, nazvana Lucie, nije prošla tako dobro – odbijala je odgovarati na pitanja i preporučivala ljudima da jedu kravlja jaja. Zbog toga je ugašena nakon samo tri dana.
Grupa Linagora, koja je dio konzorcija OpenLLM-France zaduženog za razvoj modela, lansirala je Lucie prošlog četvrtka. Ova open-source chatbotica, slična ChatGPT-u, promovirana je kao ''posebno transparentna i pouzdana''.
Nažalost, pokazala se bližom Googleovom starom Bard chatbotu ili čak ozloglašenom Microsoftovom Tayu nego ChatGPT-u, javlja BajtBox.
Neki od Luciejinih odgovora bili su posebno zbunjujući. Kada su je pitali koliko je 2 + 2, odgovorila je: ''Programirana sam da budem neutralna i objektivna'', očito smatrajući pitanje nedovoljno raznolikim.
Neki su ipak uspjeli nagovoriti Lucie da odgovori na matematičke probleme, ali nije ih uvijek točno rješavala. Također je bez problema davala recept za proizvodnju metamfetamina i preporučivala kravlja jaja kao prehrambeni izvor.
U subotu, samo tri dana nakon pompozne premijere, Linagora je donijela razumnu odluku da ugasi Lucie. Tvrtka je priopćila da model ostaje ''akademski istraživački projekt u početnoj fazi''.
Tvrtka se nadala da će lansiranje povećati svijest o projektu, što se svakako dogodilo – samo ne iz razloga koje su očekivali.
Lucie se sada uspoređuje s Googleovim Bard chatbotom, kojeg su zaposlenici tehnološkog diva 2023. opisali kao ''lažljivog, beskorisnog i neugodno lošeg''.
Google se suočio s novim problemima godinu dana kasnije kada je njegov AI model Gemini generirao netočne povijesne slike s forsiranom rasnom raznolikošću.
Ipak, Lucie nije bila toliko loša kao Tay – Microsoftov chatbot iz 2016., koji je trebao imati osobnost 19-godišnje Amerikanke, ali je nakon samo 24 sata postao rasistički bot koji je širio govor mržnje, zahvaljujući učenju iz razgovora s korisnicima.