Abogado que usó ChatGPT, ahora debe dar explicaciones a un juez por usar citas falsas
Desde que se dio a conocer al público sobre ChatGPT, esta inteligencia artificial se ha usado sobremanera. Por este motivo, muchas personas lo han utilizado para hacer tesis, documentos, ensayos y más. Sin embargo, los creadores han dicho que esta IA generativa se debe usar como una guía de información, más no como una verdad absoluta. Pero muchas personas la utilizan como una información absoluta. Y al parecer, eso podría costarle muy caro a un abogado que utilizó dicha IA.
Durante los últimos meses se ha demostrado que ChatGPT ha tenido diversos errores respecto a la información que da. Incluso, inventa muchas veces datos que no existen. Steven A. Schwartz, abogado de un estadounidense que demandaba a la aerolínea Avianca, citó diversas sentencias anteriores que no existían, ya que ChatGPT las había inventado. La información salió a la luz cuando los abogados de la aerolínea no encontraron los casos citados y notificaron al juez federal de distrito, Kevin Castel, sobre las citas falsas.
Passenger sues Avianca.
Lawyer uses AI, cites legal decisions:
Varghese v China Southern
Shaboon v Egyptair
Petersen v Iran Air
Martinez v Delta
Durden v KLM
Miller v UnitedExcept those cases don’t exist. ChatGPT made them up, wrote fake judgments. Lawyer submitted it to court pic.twitter.com/X68m9lxGo8
— Will Horton (@winglets747) May 27, 2023
Finalmente, Schwartz reiteró que no sabía que ChatGPT podía generar contenido falso. El abogado le mostró al juez capturas de pantalla sobre su conversación con la IA de OpenAI. En estas el abogado preguntaba si había validez en uno de los casos y el chatbot confirmó era un caso real. Por esta razón, Schwartz se expondrá ange una audencia que decida si sancionarlo o no «por el uso de una notarización falsa y fraudulenta».
Fuente: New York Times