Huissen TV

Informatie over Nederland. Selecteer de onderwerpen waarover u meer wilt weten over Huissen

De advocaat klaagde de luchtvaartmaatschappij aan, maar de zaak crashte met een robot

De advocaat klaagde de luchtvaartmaatschappij aan, maar de zaak crashte met een robot

Een Amerikaanse advocaat komt in de problemen nadat hij een robot het werk heeft laten doen. De rechter besefte al snel dat het allemaal een verzinsel was.

De luchtvaartmaatschappij Avianca werd aangeklaagd, maar hun advocaten wonnen aanvankelijk gemakkelijk.

Tijdens een vlucht raakte Roberto Matta gewond toen een van de wagons van de stewardessen zijn knie raakte. Mata huurde advocaten in om schadevergoeding te eisen.

De luchtvaartmaatschappij, Avianca, zei dat de zaak niet thuishoorde in het rechtssysteem. Rechter Kevin Castle vroeg Mata’s advocaat om uit te leggen waarom de zaak volledig behandeld moest worden.

Heel snel kwam advocaat Stephen Schwartz terug met een document van tien pagina’s. Ze noemde zaken als Martinez v. Delta Airlines en Varghese v. China Southern Airlines en vele andere kwesties. Op deze manier wilde hij laten zien dat er een sterk precedent is voor de rechtbank om dergelijke zaken te behandelen.

Rechter Kevin Castle uit New York was niet erg onder de indruk van de gerechtelijke documenten die hij ontving.

Eerlijke onzin

De advocaten van de luchtvaartmaatschappij stortten zich op het document. De rechter begon ook naar hen te kijken.

Ze ontdekten al snel dat er iets niet klopte. Geen van de door Schwartz genoemde gevallen kon worden gevonden. Ze konden de citaten van andere juristen niet eens googelen.

Schwartz moest voor de rechtbank verschijnen om zichzelf uit te leggen. volgens New Yorkse tijden Hij heeft meer dan 30 jaar ervaring als advocaat. Hij legde meteen al zijn kaarten op tafel.

Voor het eerst in zijn leven, zo beweert hij, vroeg hij de ChatGPT-bot om zijn kunstmatige intelligentie te gebruiken om argumenten te vinden. Het resultaat leek overtuigend. Er waren duidelijke verslagen van eerdere zaken, met verwijzingen naar bronnen en voetnoten. Maar alles bleek een vrije fantasie te zijn.

ChatGPT is nog maar het begin. Experts voorspellen dat de nauwkeurigheid in de loop van de tijd aanzienlijk zal verbeteren.

Vraag om controle

CNN Hij schrijft dat Schwartz “de kwaliteit bevestigde” van de informatie door de bot te vragen of hij zeker wist dat de informatie correct was. Toen hij een bevestigend antwoord kreeg, ging hij akkoord.

De bot verontschuldigde zich zelfs dat het eerste antwoord een beetje verwarrend zou kunnen klinken.

De krant op internet boven de wet, die advocaten en andere juristen toespreekt, en ook over de zaak schrijft. De krant distantieert zich agressief van commentatoren die ChatGPT de schuld geven. De journalist is van mening dat het geen voorbeeld is van AI die niet wordt gemeten, maar een verhaal is over een advocaat die kortere wegen nam.

Hij slaagde voor het examen

Geschreven in januari Reuters Over een enquête waarin hoogleraren rechten tentamens nakijken. Sommige antwoorden zijn geschreven door ChatGPT.

Waar de echte leerlingen gemiddeld een B+ haalden, moest de robot genoegen nemen met een C+.

– ChatGPT-onderzoeker Jonathan Choi concludeerde in zijn eentje dat hij een vrij middelmatige student was. Hij voegde eraan toe dat de bot nog steeds nuttig kan zijn voor veel advocaten. Ze kunnen AI gebruiken om eerste concepten te schrijven bij het voorbereiden van cases.

Advocaat Stephen Schwartz was van mening dat het werk van een robot moet worden gezien als een schets en dat alles van hoge kwaliteit moet zijn.

Feiten mengen

bloggen Scottosblog Heeft betrekking op het Hooggerechtshof van de Verenigde Staten. Journalisten daar stelden ChatGPT 50 vragen over de hoogste rechtbank van het land. Het ging niet goed.

Slechts 21 van de antwoorden waren helemaal goed. De kwaliteit van het hout was twijfelachtig. 26 was een regelrechte fout.

Gemengde feiten over robotica en pure productie. Zo is de conservatieve rechter Clarence Thomas afgeschilderd als zeer homovriendelijk. Zijn stem in de rechtbank toont precies het tegenovergestelde aan.

Testen hebben ook uitgewezen dat ChatGPT totaal verschillende antwoorden kan geven op dezelfde vraag, soms juist en soms ronduit onzin.

READ  Rusland: - Bevestigt de ontmoeting met Prigozhin