Til slutt ba advokaten om unnskyldning og la til at han personlig og faglig led som følge av feilen.
Etter at dommeren leste utdrag fra en sitert sak for å vise hvor lett det var å fortelle at det var «babble», sa advokaten: «Det falt meg aldri inn at det var en bløffsak. Han påpekte at teknologi, spesielt ny teknologi, har slitte advokater tidligere og at det ikke blir lettere.
Daniel Shin, assisterende professor og assisterende forskningsdirektør ved William & Mary Law Schools senter for juridisk og domstolteknologi, sa at han presenterte Avianca-saken på en konferanse deltatt av dusinvis av deltakere. Han sa at temaet skapte sjokk og forbauselse på konferansen. «Vi snakker om det sørlige distriktet i New York, et føderalt distrikt som tar for seg store ting,» sa Shin. «Dette var det første dokumenterte tilfellet av potensiell yrkesfeil fra en advokat som bruker generativ kunstig intelligens,» la han til.
Han sa at saken viser at advokater kanskje ikke har forstått hvordan ChatGPT fungerer fordi det er utsatt for hallusinasjoner og snakker om fiktive ting på en måte som høres realistisk ut, men som ikke er det. «Det fremhever farene ved å implementere lovende AI-teknologier uten å vite risikoen,» sa Shin.
Dommeren sa at han ville ta stilling til sanksjoner for advokater på et senere tidspunkt.
«Amatørkaffenerd. Lidenskapelig talsmann for øl. Tenker. Hardcore nettjunkie. Unapologetisk leser.»