La necesidad de detectar si algo está escrito por una IA
El campo de la Inteligencia Artificial está viviendo una de sus primaveras en éste momento. La relación del sector tecnológico y del público en general con éstas tecnologías siempre ha sido un ciclo de ilusión, grades avances, expectativas no satisfechas y letargo durante unos años mientras la potencia de procesamiento avanza lo suficiente para empezar de nuevo, pero parece que ésta vez las técnicas de deep learning y las inteligencias artificiales generativas están alcanzando resultados completamente inesperados.
En este momento de entre el tridente de sectores «unicornio» (Inteligencia Artificial, Blockchain, Metaverso) parece que la IA es el sector que está cuajando y creando cambios reales en nuestras vidas. GitHub Copilot, Dall-e2, Stable Diffusion, ChatGPT y demás implementaciones que nos permiten interactuar con sistemas capaces de generar contenido a partir de lenguaje natural están consiguiendo resultados espectaculares hoy mismo. Ya no se trata de una tecnología del futuro.
Pero como con todo avance disruptivo que cambia la forma en que interactuamos unos con otros, trabajamos y creamos se crean fuertes problemas éticos y legales. Por ejemplo actualmente Microsoft está siendo demandada de forma colectiva por haber utilizado código fuente de GitHub para entrenar a Copilot, un caso que puede crear un fuerte referente sobre que es lícito y que no lo es cuando se trata de derechos de autor e inteligencia artificial.
Y algo menos importante para los que nos dedicamos a escribir software, pero tal vez más importante para la sociedad en general, el sistema educativo, el periodismo, el sector académico y muchos otros baluartes de la economía del conocimiento se enfrentan a una ola de contenido generado con la ayuda de ChatGPT, el chatbot impulsado por GPT3 de OpenAI.
El bot ya ha sido capaz de:
- Aprobar (de forma mediocre) exámenes para convertirse en [abogado o médico](ChatGPT can pass the United States Medical Licensing Exam and the Bar Exam | Daily Mail Online).
- Aprobar (con buenas notas) exámenes de [MBA](ChatGPT ya engaña a los humanos: aprueba el examen de MBA de una escuela de negocios (20minutos.es))
- Conseguir que en las escuelas de Nueva York [bloqueen el acceso al servicio](Las escuelas de Nueva York bloquean el acceso a ChatGPT para evitar su uso durante las clases (20minutos.es)).
- Engañar a científicos con [falsos planteamientos de artículos](Abstracts written by ChatGPT fool scientists (nature.com)).
- [Crear debate](ChatGPT listed as author on research papers: many scientists disapprove (nature.com)) sobre si una IA puede ser «co-autora» de un artículo.
El CEO de OpenAI ya ha declarado ante la controversia que [«Nos hemos adaptado a las calculadoras y hemos cambiamos lo que examinamos en clase de matemáticas»](ChatGPT CEO Responds to Plagiarism Concerns Amid School Bans (businessinsider.com)) y no le falta razón. Crisis similares se vivieron con las enciclopedias digitales, los procesadores de textos, internet, la fotocopiadora y múltiples otras herramientas que empezaron siendo «trampa» y ahora forman parte del proceso.
Pero mientras tanto nos encontramos con la situación de que vivimos en un mundo en el que un bot escribe textos que pueden pasar por cosas escritas por personas. El [Test de Turing](Prueba de Turing – Wikipedia, la enciclopedia libre) está superado a medias.
Durante este periodo extraño en el que la tecnología es nueva y sus posibilidades y consecuencias desconocidas, por muchos motivos éticos, legales y prácticos, necesitamos ser capaces de distinguir texto generado por ChatGPT de texto «original» creado por humanos.
- ChatGPT miente y no lo sabe. Algunas de sus respuestas, siendo plenamente coherentes son incorrectas.
- Los sistemas de evaluación no están adaptados, convirtiendo los mecanismos para probar el conocimiento en triviales para alguien que use ésta herramienta.
- ChatGPT no se hace responsable de lo que escribe o del daño que pueda causar. No es una persona y no tiene agencia propia.
- Como nos indica el caso de GitHub Copilot el marco legal no está definido de forma clara.
Y quien creó el veneno ha creado el antídoto. OpenAI ha lanzado [AI Text Classifier](AI Text Classifier – OpenAI API), un producto especialmente diseñado para analizar texto y proporcionarnos una valoración de como de probable es que haya sido generado por ChatGPT o alguna Inteligencia Artificial similar.
Herramientas como ésta ayudarán en el periodo de transición, mientras nos acostumbramos a desconfiar de la autoría de un texto en apariencia coherente y asimilamos que lo puede haber escrito una [habitación china](Habitación china – Wikipedia, la enciclopedia libre).
Pero ojo. No debemos olvidar como funciona la tecnología. Estamos ante un paso más de la carrera armamentística. Un algoritmo detector es una pieza fundamental para crear un algoritmo que pueda crear texto que pueda pasar por escrito por un humano. El bucle de retroalimentación entre algoritmos generadores y algoritmos detectores es uno de los fundamentos de las [Redes Generativas Antagónicas](Red generativa antagónica – Wikipedia, la enciclopedia libre), uno de los grandes avances en el campo de la Inteligencia Artificial.
¿Es plagio usar texto creado por ChatGPT y pasarlo como tu propio trabajo? ¿Crees que estamos exagerando y que las herramientas detectoras no son necesarias? ¿Crees que algún tipo de regulación es necesaria? Déjanos tu opinión en los comentarios.