Právnik zastupujúci muža, ktorý zažaloval leteckú spoločnosť, sa pri príprave súdneho podania spoliehal na umelú inteligenciu.

Súdny proces sa začal ako mnohé iné: Muž menom Roberto Mata zažaloval leteckú spoločnosť Avianca s tým, že sa zranil, keď ho počas letu na Kennedyho medzinárodné letisko v New Yorku zasiahol kovový servírovací vozík do kolena. Keď firma požiadala manhattanského federálneho sudcu o zamietnutie žaloby, právnici pána Matu sa proti tomu ostro ohradili a predložili 10-stranový spis, v ktorom citovali viac ako pol tucta relevantných súdnych rozhodnutí. Išlo o rozsudky Martinez vs. Delta Air Lines, Zicherman vs. Korean Air Lines a, samozrejme, Varghese vs. China Southern Airlines, v ktorom sa učene rozoberali federálne zákony a „účinok automatického zastavenia na premlčanie“.

o urobil právnik zle? Predložil federálnemu súdu podanie, v ktorom uviedol najmenej šesť neexistujúcich prípadov. Žiaľ, právnik použil chatbota ChatGPT s umelou inteligenciou, ktorý si prípady úplne vymyslel zo vzduchu. Právnik v tomto prípade, Steven A. Schwartz, povedal, že nikdy predtým nepoužíval AI a netušil, že si prípady len tak vymyslí. V skutočnosti Schwartz povedal, že sa dokonca spýtal ChatGPT, či sú prípady skutočné. Chatbot trval na tom, že sú. Ale až po tom, čo právnici leteckej spoločnosti v novom podaní poukázali na to, že prípady neexistujú, Schwartz zistil svoj omyl. Sudca v tomto prípade, P. Kevin Castel, podľa New York Times 8. júna usporiada pojednávanie o tom, čo robiť v tomto zamotanom prípade.

Služba ChatGPT bola spustená koncom roka 2022 a okamžite sa stala hitom. Chatbot je súčasťou rodiny nových technológií nazývaných generatívna umelá inteligencia, ktoré dokážu viesť konverzácie s používateľmi celé hodiny. Konverzácie pôsobia tak organicky a normálne, že sa niekedy zdá, že má vlastnú myseľ. Technológia je však notoricky známa svojou nepresnosťou a často si len vymyslí fakty a zdroje faktov, ktoré sú úplne falošné. Podobné problémy má aj konkurenčný produkt – Google Bard. Žiadny z týchto problémov však nezastavil ľudí, ktorí túto experimentálnu technológiu používajú ako spoľahlivý zdroj informácií. Existuje nespočetné množstvo správ o deťoch, ktoré si nechali napísať seminárnu prácu, a rovnako veľa správ o učiteľoch, ktorí si myslia, že sa môžu chatbota jednoducho opýtať, či bola práca použitá.

OpenAI, ktorá stojí za ChatGPT, síce ponúka službu, ktorá sa snaží zistiť, kedy bol chatbot s umelou inteligenciou použitý, ale tento detektor má údajne len 20% presnosť. A ak ChatGPT len nakŕmite náhodnými odsekmi, AI nedokáže povedať, či ich napísal. Chatboti ako ChatGPT sú kontroverzní z viacerých dôvodov vrátane toho, že niektorí technickí experti sa obávajú, že by sa im AI mohla vymknúť spod kontroly. Niektorí ľudia sa dokonca domnievajú, že AI by mohla začať mať vlastnú vôľu a spustiť scenár podobný Terminátorovi, v ktorom bude ľudstvo úplne zničené. Miliardár Elon Musk naznačil takúto možnosť, keď nedávno vyzval na šesťmesačnú prestávku vo vývoji umelej inteligencie – prestávka, ktorá pravdepodobne súvisela skôr s tým, že sa pretekal v budovaní vlastného konkurenta.

Musk bol totiž jedným z pôvodných spoluzakladateľov OpenAI v roku 2015, než bol v roku 2018 vytlačený po tom, ako sa pokúsil prevziať kontrolu nad spoločnosťou. Chatboti sú v podstate len pokročilejšie formy prediktívneho textu. Fungujú tak, že sa úžasnou rýchlosťou snažia odhadnúť, čo by mali povedať, a táto rýchlosť často spôsobuje, že vypľujú množstvo nepresného odpadu. Namiesto toho, aby technika jednoducho povedala „neviem“, vymyslí dlhý zoznam zdrojov, ktoré v skutočnosti neexistujú. A ak sa ChatGPT opýtate, či sú tieto zdroje skutočné, ubezpečí vás, že áno. Ľudia boli rozmaznávaní vyhľadávačom Google, ktorý je síce nedokonalý, ale pokúsi sa vynoriť čo najpresnejšie informácie. Wikipédia, ktorá sa pri svojom prvom spustení stretla so skepticizmom, je všeobecne spoľahlivým zdrojom informácií, pretože ju neustále kontrolujú armády odborníkov, ktorým záleží na tom, aby boli veci správne.

ChatGPT sa nestará o to, či sú informácie, ktoré vypúšťa, správne. Je to kúzelnícky trik a ľudia, ktorí inak považovali bežné služby ako Google a Wikipédia za presné, sa dočkali krutého prebudenia. Tejto novej generácii technických nástrojov totiž na pravde nezáleží. Boli navrhnuté tak, aby pôsobili pôsobivo, nie aby boli presné. A používatelia internetu budú túto tvrdú lekciu dostávať znova a znova, pretože umelá inteligencia sa dostáva do mnohých technológií, ktoré používame každý deň. Skutočným nebezpečenstvom je, zdá sa, to, že ľudia jednoducho uveria všetkému, čo stroje povedia, bez ohľadu na to, ako veľmi sa mýlia. ChatGPT nevie, že vám hovorí nepresné informácie. Je teda na nás, aby sme si overovali fakty a dbali na správnosť.

1 , 2