El Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la Universidad de Buenos Aires (IALAB-UBA) ha publicado un informe titulado «¿Lo escribió un humano o la IA? Evaluación de autoría en textos generados o asistidos por inteligencia artificial». Este documento aborda la complejidad de determinar la procedencia de los contenidos en un ecosistema digital donde la inteligencia artificial (IA) se integra de manera nativa en los procesadores de texto.
La investigación, dirigida por Juan Gustavo Corvalán, revela una vulnerabilidad crítica en las herramientas comerciales de detección de IA, como GPTZero, YouScan, Quillbot y My Detector, entre otras. Según los experimentos realizados, el 48,48% de los textos íntegramente escritos por humanos fue clasificado erróneamente como contenido generado por algoritmos.
Este elevado índice de falsos positivos indica que el error se aleja de ser un fenómeno marginal; constituye un problema estructural de los sistemas de detección automática. Estas herramientas operan bajo análisis estadísticos de previsibilidad léxica y regularidad sintáctica que a menudo confunden la precisión humana con la automatización. Como señala Corvalán, la pregunta sobre si un texto fue escrito por un humano o por una IA tiende a perder relevancia en términos binarios, ya que el foco debe desplazarse hacia la identificación de una intervención humana sustantiva.
Frente a la ineficacia de los clasificadores dicotómicos, el informe propone una metodología estructurada en tres niveles para evaluar la autoría y la legitimidad de un documento:
- Nivel 1 – Detección algorítmica automatizada: Se considera un mecanismo de alerta inicial con carácter instrumental. Posee un peso decisorio bajo debido a su naturaleza probabilística y su opacidad algorítmica.
- Nivel 2 – Trazabilidad técnica: Implica la revisión de metadatos, historiales de versión y marcas de agua. Aunque aporta evidencia técnica objetiva, su ausencia no invalida la autoría humana, por lo que su peso es medio.
- Nivel 3 – Huellas humanas irreductibles: Este es el criterio decisorio principal y prevalece sobre los niveles anteriores. Se centra en operaciones cognitivas y éticas que no emergen de procesos de optimización estadística.
El marco del IALAB identifica ocho dimensiones cualitativas que acreditan la presencia de una voluntad responsable y una interpretación situada en el texto:
- Juicio evaluativo explícito: Valoraciones fundamentadas y contextualizadas.
- Toma de posición frente a alternativas: Elección argumentada entre diversas opciones.
- Asunción de responsabilidad: Reconocimiento de las consecuencias jurídicas o institucionales del contenido.
- Contextualización situada: Anclaje del texto en marcos normativos o fácticos específicos.
- Grado de interpretación: Construcción de sentido y ponderación de fuentes aplicadas al caso concreto.
- Experiencia humana o institucional: Referencias a prácticas reiteradas, memoria organizacional o saberes operativos.
- Ética aplicada al caso concreto: Análisis de impactos, derechos y proporcionalidad de manera situada.
- Creatividad funcional: Propuestas de solución viables y adaptadas a objetivos reales.
Este informe se posiciona como una contribución inédita en español, aportando una perspectiva regional a un debate que históricamente ha estado dominado por la literatura anglosajona. Según sus autores, el desafío futuro consiste en diseñar marcos de gobernanza del uso de IA que preserven la centralidad de la decisión y la supervisión humanas. Esta mirada resulta fundamental en un ecosistema de herramientas cada vez más sofisticadas, donde las fronteras entre la producción humana y la asistencia algorítmica se vuelven cada vez más difusas.
Vía
Según un informe de la UBA, más del 48% de textos humanos son catalogados como IA por error
Fuente: PERIODISMO.com

