¿Cómo funcionan realmente los detectores de IA?
La IA aplica un proceso comparativo y estadístico que puede sacar conclusiones

Mucho se habla de la necesidad de usar un detector de inteligencia artificial en la producción de contenido. Pero pocos saben en realidad cómo funciona, y hasta qué punto puede señalar si un texto ha sido creado de manera automática.
La IA aplica un proceso comparativo y estadístico que puede sacar conclusiones. La forma en que consigue esto es bastante interesante.
La probabilidad lingüística
Comencemos por recordar que los modelos de IA generan un texto, de forma predictiva. Seleccionan cada vocablo mediante un extremadamente veloz cálculo de probabilidades.
¡Sigue nuestro canal de WhatsApp para más noticias! Únete aquí
Eso le permite también detectar cuando un escrito es generado por otro sistema automatizado. Y lo hacen a través de dos variables.
Perplexity
Que significa perplejidad. Es una métrica en la que evalúa que tan predecible es un texto. Si lo ha hecho una IA, su contenido será altamente predecible. Si es humano, este factor será muy bajo.
Burstiness
En este caso hablamos de que tan variada es su escritura. Los humanos escriben frases de diversa longitud, y emplean estructuras irregulares. También cambian el ritmo en oraciones y en palabras.
La IA tiende a redactar frases similares, con cantidades de palabras regulares, siguiendo una sintaxis uniforme hasta el hartazgo.
La clasificación estadística
Los detectores de inteligencia artificial emplean modelos entrenados en corpus etiquetados. También recurren a algoritmos binarios que comparan la IA con el estilo de redacción humano. De este modo calculan umbrales de probabilidad. Por ejemplo, indican 75% de probabilidad de que sea resultado de una IA.
A pesar de su alta capacidad de análisis, es importante recordar que no hay una marca digital omnipresente que identifique los niveles de IA.
El problema de los falsos positivos
Aún cuando las IA pueden actuar con gran rapidez y efectividad, hay algo que no hay que dejar de lado. También puede cometer errores, y en este caso es lo que se conoce cómo falso positivo.
Esto sucede cuando indica un alto porcentaje de probabilidades de que sea generado de forma automatizada, cuando no es cierto.
¿Por qué sucede?
Porque algunos tipos de escritos pueden parecer automáticos. Por ejemplo, cuando un estudiante manifiesta un estilo extremadamente formal y regular.
También con personas no nativas de un idioma que redactan con demasiada simpleza.
Incluso puede suceder con trabajos académicos estrictamente estructurados, claros y consistentes.
Este problema se ha presentado en algunas universidades, en las que se acusaron a estudiantes injustamente. Tras una investigación las autoridades retiraron las sanciones que aplicaron debido a estos diagnósticos.
Pero es que la IA puede llegar a señalar debido a su estructura a viejos textos constitucionales, a ensayos previos al 2020 y también a parte de la biblia.
Esto sucede porque no puede detectar un problema de raíz. Solamente un patrón estadístico.
Cuando la dificultad aumenta
A medida en que la IA mejora, aparece otro problema. Es que pronto va a ser más difícil de detectar.
Las mejorías incluyen modelos con mayores variantes, la capacidad de simular errores humanos y una mejora en el ajuste del tono y el estilo. También podrán introducir irregularidades deliberadas para simular la escritura natural.
Esto hace que la diferencia estadística entre nuestro trabajo y el de la IA se reduzca, haciendo más difícil de detectar.
Es posible deducir que, si una IA se desarrolla la suficiente, su capacidad lingüística va a converger con la humana.
Por lo tanto, en algún momento podría no ser posible saber si intervino en un escrito.
¿Pueden mejorarse los detectores de IA?
Una posible mejora para los detectores de IA podría depender de que los generadores de texto implementen obligatoriamente señales de su presencia.
Por ejemplo, a través del watermarking, que sería la inserción de marcas de agua innegables. Sin embargo, no es un patrón universal. Además, pueden eliminarse en el momento de editar un texto, y no todos los modelos los implementan.
También podrían establecerse firmas criptográficas, que es una certificación que se establece desde el modelo que lo originó.
Esto es más complicado porque requiere de una cooperación global, y no se aplica a modelos abiertos. Por lo tanto, no es tan fácil que los modelos generados trabajen de una forma universal y que sea fácilmente identificable.
Como proceder éticamente ante el diagnóstico de la IA
En el caso de que un falso positivo genere problemas en un entorno educativo o laboral, es importante considerar bases éticas para proceder de manera justa.
No se puede ignorar la presunción de inocencia, ni sancionar de forma absoluta ante una herramienta que sólo señala probabilidades.
Tampoco hay que olvidar que muchos detectores no tienen métricas claras ni fijas, ni realizan auditorías externas.
Conclusión
Los detectores de inteligencia artificial no son absolutos, sólo sistemas entrenados que pueden arrojar márgenes de error significativos. Lo ideal es que sean herramientas de utilidad en diversas tareas.
En su aplicación debe mediar el debate y el criterio humano.
No basta con pensar si un texto parece proveniente de una IA. Es indispensable aprender a convivir con una tecnología que está aprendiendo mucho de nosotros, todos los días.
no te pierdas estas noticias












