Mióta az OpenAI mesterséges intelligenciával foglalkozó kutató vállalat novemberben kiadta a ChatGPT nevű csevegőrobotját, a felhasználók kíváncsian kísérleteztek az eszközzel, többen is megpróbáltak hír- vagy bulvárcikkeket, esetenként randevúra invitáló üzeneteket írni.
A ChatGPT a “nagy nyelvi modelleszközök” néven ismert technológia legújabb képviselője, nem személyes hangvételben fogalmaz, és nem úgy “gondolkodik”, mint az emberek. Tehát, bár a ChatGPT képes elmagyarázni az atomfizikát vagy parancsra tud verset írni, a szakértők szerint a mesterséges intelligencia teljes hatalomátvétele még nincs ilyen közel.
“Van egy mondás, miszerint végtelen számú majom kiad egy Shakespeare-t” – mondta az Insidernek Matthew Sag, az Emory Egyetem jogászprofesszora, aki a ChatGPT-hez hasonló nagyméretű nyelvi modellek képzésének és használatának szerzői jogi vonatkozásait tanulmányozza.
“Itt nagy számban vannak majmok, amely lenyűgöző dolgokat adhat ki – de alapvetően van különbség aközött, ahogyan az emberek kitermelik az írott nyelvet, és aközött, ahogyan a nagy nyelvi modellek teszik ezt” – mondta.
A GPT-hez hasonló csevegőrobotok nagy mennyiségű adatot és számítástechnikai technikákat használnak fel arra, hogy előrejelzéseket készítsenek a szavak értelmes felfűzésére. Nemcsak hatalmas mennyiségű szókincset és információt csapolnak meg, hanem kontextusban is megértik a szavak jelentését. Ez segít nekik a beszédminták utánzásában, miközben enciklopédikus tudást bocsátanak ki.
Más technológiai cégek, például a Google és a Meta saját nagyméretű nyelvi modelleszközöket fejlesztettek ki, amelyek olyan programokat használnak, amelyek emberi utasításokat fogadnak be, és kifinomult válaszokat dolgoznak ki. Az OpenAI egy forradalmi lépéssel egy olyan felhasználói felületet is létrehozott a fejlesztéshez, amely lehetővé teszi, hogy a nagyközönség közvetlenül kísérletezzen vele.
Néhány közelmúltbeli próbálkozás a chatbotok valós szolgáltatásokhoz való felhasználására aggasztónak bizonyult. A Koko nevű mentális egészségügyi cég ebben a hónapban került a figyelem középpontjába, miután az alapítója arról írt, hogy a cég egy kísérletben GPT-3-at használt a felhasználóknak való válaszadáshoz.
A Koko társalapítója, Rob Morris sietett tisztázni a Twitteren, hogy a felhasználók nem közvetlenül egy chatbothoz beszéltek, hanem a mesterséges intelligenciát használták a válaszok “kidolgozásának segítésére”.
A vitatott DoNotPay szolgáltatás alapítója, aki azt állítja, hogy a GPT-3 által vezérelt chatbotja segít a felhasználóknak az ügyfélszolgálati viták megoldásában, azt is mondta, hogy egy AI “ügyvéd” valós időben adna tanácsot a vádlottaknak a tényleges bírósági közlekedési ügyekben, bár ezt később visszavonta a kockázatokkal kapcsolatos aggodalmak miatt.
Úgy tűnik, hogy más kutatók a generatív AI-eszközökkel kapcsolatban visszafogottabb megközelítést alkalmaznak. Daniel Linna Jr., a Northwestern University professzora, aki a Lawyers’ Committee for Better Housing nevű nonprofit szervezetnek dolgozik, a technológia hatékonyságát kutatja a jogban. Az Insidernek elmondta, hogy segít kísérletezni egy “Rentervention” nevű chatbotot, amely a bérlőket hivatott támogatni.
Ez a bot jelenleg olyan technológiát használ, mint a Google Dialogueflow, egy másik nagy nyelvi modelleszköz. Linna elmondta, hogy kísérletezik a Chat GPT-vel, hogy segítsen a “Rentervention”-nek jobb válaszokat adni és részletesebb leveleket megfogalmazni, miközben felméri a korlátokat.
Az OpenAI is elismerte ezt, saját weboldalán kifejtve, hogy a ChatGPT válaszai, bár hihetőnek tűnhetnek, de helytelenek vagy értelmetlenek lehetnek.
Bár nem tudjuk, milyen rohamosan fog fejlődni ez a már szinte tökéletesen működő technológia, abban biztosak lehetünk, hogy a hiteles információk és a megbízható források még nem a mesterséges intelligenciától származnak.
Forrás: Business Insider