Ashly Carrasquillo Burgos*

Retrocedamos en el tiempo. Estamos en el 2019 y me encuentro en el Departamento de Ciencias Sociales de la Universidad de Puerto Rico, Recinto de Río Piedras, culminando mi bachillerato en Psicología. El proceso de enseñanza se nutrió de discusiones orales críticas, dinámicas en los salones, debates en los pasillos y ejercicios prácticos. Eventualmente, al graduarme y continuar estudios de maestría en Relaciones Públicas y Comunicaciones, la pandemia de COVID-19 trastocó el entorno académico y todo comenzó a digitalizarse aceleradamente. Las reuniones de clases presenciales se convirtieron en la excepción y los Zoom calls en la norma, las entregas de los trabajos universitarios se transformaron en entregas electrónicas y las lecturas se discutían virtualmente. En plena pandemia, esta era la única forma de avanzar con el proceso educativo. Sin embargo, ante la preocupación de carecer de destrezas prácticas, participé en mi primer internado. Aunque fue virtual, las discusiones con retroalimentación activa de expertos en comunicación y la aplicación práctica sirvieron de puente para consolidar toda la teoría aprendida a distancia.

Ahora, avancemos al presente. En el 2023, ingresé a la Escuela de Derecho de la Universidad de Puerto Rico y pronto se hizo evidente que soy una estudiante que conoció un proceso educativo ajeno al uso de herramientas de Inteligencia Artificial (en adelante, “IA”), y que ahora, en mis estudios graduados, me enfrento a una multiplicidad de herramientas tecnológicas que tienen el potencial de facilitar y transformar la formación académica. No obstante, cabe preguntarse: ¿estas herramientas contribuyen al proceso educativo o, por el contrario, desafían el desarrollo de pensamiento crítico, un criterio esencial en la formación jurídica?

Contrario a lo que podríamos inferir, el surgimiento de la IA no es reciente. En 1950, Alan Turing escribió el artículo Computing Machinery and Intelligence, donde se preguntaba si las máquinas podían pensar y aprender de la experiencia humana de la misma manera que lo hace un niño.[1] Unos años después, en 1956, se organizó la primera conferencia para estudiar la IA, donde el anfitrión y profesor, John McCarthy, acuñó el término de Inteligencia Artificial.[2] Si bien su comienzo fue optimista, el progreso de la IA no fue exponencial, pasando por períodos sin financiación y con resultados escasos. Sin embargo, la IA resurgió en el siglo veintiuno como una tecnología transformadora.[3]

Fue cuestión de tiempo para que la preocupación que me invadió en la pandemia regresara, esta vez inmersa en mi preparación como futura abogada, al conocer el caso de Mata v. Avianca, Inc.[4] En dicho caso, el abogado Steven A. Schwartz representaba a un hombre que demandó a una aerolínea y presentó una oposición a la desestimación del caso fundamentada en jurisprudencia ficticia generada por ChatGPT.[5] Posteriormente, reconoció que utilizó la herramienta de IA para realizar su investigación legal y que se había limitado a generar un prompt en el que preguntaba si la jurisprudencia era real, sin verificación alterna diligente de los resultados.[6]

Han transcurrido dos años desde Mata v. Avianca, Inc.,[7] y el modelo de aprendizaje de ChatGPT evolucionó y continuará impactando la práctica y la formación jurídica. De hecho, su modelo GPT-4 aprobó el examen de la abogacía de Estados Unidos (en adelante, “Bar Exam”).[8] Para enfatizar, el artículo GPT-4 Passes the Bar Exam demuestra experimentalmente el desempeño de GPT-4 en comparación con generaciones anteriores de GPT al medir su capacidad en el Bar Exam.[9] Entre los resultados, GPT-4 sobrepasó la puntuación promedio de cinco de siete materias examinadas.[10] Un año después, OpenAI lanzó ChatGPT-5, prometiendo un “sistema unificado que sabe cuándo responder con rapidez y cuándo pensar más para ofrecer respuestas expertas”.[11]

Parece evidente que ya no estamos ante el mismo modelo de aprendizaje implicado en Mata v. Avianca, Inc.,[12] sino frente a sistemas que, con el tiempo, se nutren de bases de datos capaces de conducir a una jurisprudencia más precisa y a respuestas con un margen de error reducido. Dicho lo anterior, reflexiono: ¿estoy preparada para discernir si la información que me ofrecen estas herramientas es la más acertada? Quizás exista un criterio profesional que debamos cultivar con paciencia.

En ese contexto, adquiere especial relevancia la regla 1.19 de las nuevas Reglas de Conducta Profesional de Puerto Rico que entrará en vigor el 1 de enero de 2026, donde reconoce la importancia de la diligencia y la competencia tecnológica.[13] A través de los comentarios, se aborda sobre la utilidad de las herramientas de IA en la profesión jurídica sin que ello repercuta en sustituir el criterio profesional de quien ejerce la abogacía o la notaría.[14] Asimismo, según el profesor Alfonso Martínez Piovanetti, “[e]sta dualidad conceptual refleja una comprensión sofisticada de la problemática que enfrentan los y las profesionales del Derecho en estos momentos: no basta con poseer conocimientos tecnológicos que inciden sobre el ejercicio de la profesión jurídica; sino que es imperativo aplicarlos de manera oportuna, responsable y efectiva”.[15] Considero que es un desafío desarrollar mi criterio profesional en un entorno cada vez más automatizado por la IA. Al mismo tiempo, reconozco que una postura absolutista de no utilizar IA significaría ignorar una transformación tecnológica inminente.

Recientemente, Clay Shirky, vicerrector de la Universidad de Nueva York, escribió un ensayo titulado Students Hate Them, Universities Need Them. The Only Real Solution to the AI Cheating Crisis.[16] El académico sostiene en el artículo que las instituciones educativas deben alejarse de tareas y ensayos para el hogar y dirigir los esfuerzos a pruebas orales, escritos en clase, horas de oficina obligatorias y evaluaciones que requieran que los y las estudiantes demuestren conocimiento real.[17] Sostiene, además que si los métodos de trabajo preferidos por el estudiante reducen el esfuerzo mental, es necesario reintroducir ese esfuerzo de alguna manera.[18] En contraste, Stephen Embry, en el artículo Training Young Lawyers In The Age Of AI: A Riddle Wrapped In A Mystery Inside An Enigma, sitúa la posición del académico Shirky hacia las Escuelas de Derecho con una posible ventaja: el método socrático.[19] No obstante, paralelamente plantea que se ha reducido su uso por escenarios educativos parecidos a los que el académico Shirky critica.[20]

Ahora bien, ¿significa que debemos regresar a los métodos tradicionales de enseñanza, luego del continuo avance tecnológico? No necesariamente. Un estudio de Microsoft titulado The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers encuestó a 319 trabajadores para investigar cuándo y cómo perciben la integración en acción del pensamiento crítico al utilizar IA, y cuándo y por qué la IA afecta el esfuerzo para hacerlo.[21] Entre los resultados, se destacó que una confianza mayor hacia la IA se asocia con menor pensamiento crítico; mientras que una mayor autoconfianza se asocia con más pensamiento crítico. Es decir, al utilizar herramientas de IA generativa, el esfuerzo dedicado al pensamiento crítico se desplaza de la recopilación de información a la verificación de esta; de la resolución de problemas a la integración de las respuestas proporcionadas por la IA; y de la ejecución de tareas a su supervisión.[22]

Además, en una revisión sistemática publicada en el Multidisciplinary Latin American Journal (en adelante, “MLAJ”), se identificó que la principal fortaleza de la IA radica en su capacidad para adaptarse a los diferentes estilos de aprendizaje del alumnado.[23] No empece lo anterior, también se reiteran riesgos como la “delegación cognitiva prematura”, en la que algunos estudiantes confían excesivamente en las herramientas automatizadas en lugar de desarrollar su propio razonamiento crítico.[24]

Por su parte, algunos estudiantes universitarios limitan el uso de la IA al sentir que ya no pueden pensar por sí mismos.[25] No obstante, un sondeo realizado, en octubre de 2025, entre siete estudiantes de tercer año de la Escuela de Derecho de la Universidad de Puerto Rico reveló que estos emplean herramientas como ChatGPT-5, Claude, Lexis AI, Westlaw AI, Perplexity y NotebookLM con frecuencia diaria o semanal.[26] A su vez, utilizan dichas herramientas para corroborar redacción, búsqueda de jurisprudencia, resumir jurisprudencia extensa, como material de apoyo y para completar ejercicios prácticos de aplicación del derecho. En cuanto a si consideran que el uso de la IA está ayudando o perjudicando el desarrollo de pensamiento crítico, una de las participantes respondió en el sondeo: “Ayudando, porque, aunque la utilizo como herramienta para facilitar la información que busco, lo utilizo mayormente como el pie forzado para estimular el pensamiento crítico”.[27] Por otro lado, otro de los participantes mencionó: “Entiendo que, en la medida en que se genere una dependencia, esto puede redultar [sic] perjudicial para el desarrollo del pensamiento critico [sic]. Distinto es el caso cuando se utiliza como complemento al trabajo ya realizado. Todo dependerá del uso que se le de [sic]”.[28]

¿Y si ahora vamos al futuro? Como estudiante nocturna de Derecho que trabaja a tiempo completo, resulta tentador delegar mis responsabilidades académicas a un bot. Sin embargo, desde que noté que mi curiosidad se estaba apagando, decidí utilizar la IA complementariamente posterior a la realización del trabajo por mí misma. Mi intuición no es delegable a la IA.

Hoy apuesto por una postura reconciliadora en la que reconozco que aún estoy en proceso de formación como profesional del derecho y que, para desarrollar mi capacidad de discernimiento frente a una multiplicidad de respuestas automatizadas, hay un proceso educativo que debo nutrir con paciencia. Lo anterior no es una invitación a enajenarnos de la transformación tecnológica que estamos viviendo, sino que debemos prepararnos conscientemente para que, eventualmente, nuestro criterio profesional se fusione con la competencia tecnológica.

* Estudiante de Derecho de tercer año nocturna en la Universidad de Puerto Rico, Recinto de Río Piedras. Expreso mi agradecimiento al profesor Alfonso Martínez Piovanetti, a Edmaris Carazo, Aracelymar Soto Ramírez y Génesis Rodríguez Ortiz por sus valiosas observaciones y sugerencias durante la redacción de este Comentario.

[1] JAMES E. BAKER ET AL., AN INTRODUCTION TO ARTIFICIAL INTELLIGENCE FOR FEDERAL JUDGES 7 (2023).

[2] Id.                                                                                                                                                                                                    

[3] Id.

[4] Mata v. Avianca, Inc., 678 F. Supp. 3d 443 (S.D.N.Y., 2023).

[5] Id. en la pág. 448.

[6] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, NEW YORK TIMES (27 de mayo de 2023), https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html.

[7] Mata, 678 F. Supp. 3d.

[8] Daniel Martin Katz et al., GPT-4 Passes the Bar Exam, 382 PHIL. TRANS. R. SOC. A (2023) (Los componentes de la evaluación fueron el examen multiestatal de selección múltiple, el examen multiestatal de ensayo y el examen de rendimiento multiestatal, ambos de preguntas abiertas.)

[9] Id.

[10] Id. en la pág. 7 (Las materias examinadas fueron Procedimiento Civil, Derecho Constitucional, Contratos, Procedimiento Criminal, Evidencia, Propiedad Inmobiliaria y Daños y Perjuicios. Las materias que no sobrepasaron el promedio de puntuación en GPT-4 fueron Derecho Constitucional y Daños y Perjuicios).

[11] Introducing GPT-5, OPENAI (25 de agosto de 2025), https://openai.com/index/introducing-gpt-5/ (traducción suplida).

[12] Mata, 678 F. Supp. 3d.

[13] R. COND. PROF. R. 1.19 (2025).

[14] Id. cmt. en la pág. 124.

[15] Alfonso Martínez Piovanetti, La nueva Regla 1.19 de Conducta Profesional: Una visión de futuro para la profesión jurídica en Puerto Rico, MICROJURIS, (18 de junio de 2025), https://aldia.microjuris.com/2025/06/18/la-nueva-regla-1-19-de-conducta-profesional-una-vision-de-futuro-para-la-profesion-juridica-en-puerto-rico/.

[16] Clay Shirky, Students Hate Them. Universities Need Them. The Only Real Solution to the A.I. Cheating Crisis, THE NEW YORK TIMES (26 de agosto de 2025), https://www.nytimes.com/2025/08/26/opinion/culture/ai-chatgpt-college-cheating-medieval.html.

[17] Id.

[18] Id.

[19] Stephen Embry, Training Young Lawyers In The Age Of AI: A Riddle Wrapped In A Mystery Inside An Enigma, ABOVE THE LAW (12 de septiembre de 2025), https://abovethelaw.com/2025/09/training-young-lawyers-in-the-age-of-ai-a-riddle-wrapped-in-a-mystery-inside-an-enigma-2/.

[20] Id.

[21] Hao-Ping Lee et al., The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers, ACM DIGITAL LIBRARY (25 de abril de 2025), https://dl.acm.org/doi/10.1145/3706598.3713778 (El estudio abarcó el marco teórico del pensamiento crítico mediante diferentes actividades cognitivas como conocimiento, comprensión, aplicación de conocimiento, análisis, síntesis y evaluación.)

[22] Id. en la pág. 10.

[23] Geovanny Francisco Ruiz Muñoz et al., El impacto de la inteligencia artificial en la enseñanza del derecho, 3 MULTIDISCIPLINARY LATIN AM. J. 468, 476-77 (2025), https://mlaj-revista.org/index.php/journal/article/view/70.

[24] Id. en la pág. 477.

[25] Susana Pérez Soler, Disidentes de ChatGPT, los estudiantes que se niegan a usar IA: “No podía recordar la última vez que había escrito por mí misma”, EL PAÍS (25 de septiembre de 2025), https://elpais.com/tecnologia/2025-05-22/disidentes-de-chatgpt-los-estudiantes-que-se-niegan-a-usar-ia-no-podia-recordar-la-ultima-vez-que-habia-escrito-por-mi-misma.html.

[26] Ashly Carrasquillo Burgos, Sondeo: Inteligencia Artificial (IA) y Formación Jurídica (octubre de 2025) (sondeo inédito) (archivo electrónico de la autora).

[27] Id.

[28] Id.

Share.