Este pequeño grupo está trabajando para mantener Wikipedia limpia de inteligencia artificial
Da igual la mala fama que haya podido llegar a tener. Wikipedia, por más que muchos insistan en desestimarla como lugar de referencia debido a las inexactitudes y falsedades que pueden llegar a encontrarse entre sus párrafos, sigue siendo una de las principales fuentes de información en Internet para mucha gente. Su bastísimo catálogo, que incluye entradas de cualquier evento histórico, disciplina o personalidad pública, es demasiado amplio como para no toparse con un enlace a Wikipedia cada vez que buscamos algo en la red.
Es por ello por lo que no era de extrañar que, con la invasión de los chatbots de inteligencia artificial, el contenido basura generado por IA (o AI slop, como le llaman algunos), también llegase a esta plataforma.
Wikipedia es posiblemente uno de los proyectos de conocimiento y software libres más famosos en todo el mundo, y es por eso por lo que cuenta con muchos defensores que, pese a sus inevitables fallos y lagunas, están dispuestos a colaborar voluntariamente con su trabajo no remunerado para mantener y cuidar uno de los máximos exponentes de la colaboración solidaria en Internet.
Es en este contexto en el que un grupo de personas voluntarias ha decidido crear el «WikiProject AI Cleanup«, un equipo que revisa y elimina el contenido falso o equívoco creado por inteligencia artificial que empieza a llegar también a la enciclopedia libre. El proyecto AI Cleanup es «una colaboración para combatir el creciente problema del contenido generado por IA, mal escrito y sin fuentes en Wikipedia».
Cualquier persona está invitada a sumarte o a participar en el proyecto, en el que al momento de escribir esto hay unas 78 personas inscritas según la página en Wikipedia, un número muy pequeño teniendo en cuenta las dimensiones de Wikipedia.
Tal y como explican en su entrada, el proyecto tiene tres objetivos principales:
- Identificar texto escrito por IA y verificar que sigue las políticas de Wikipedia. Cualquier afirmación sin fuentes y probablemente inexacta debe eliminarse.
- Identificar imágenes generadas por IA y garantizar un uso apropiado.
- Ayudar y hacer un seguimiento de los editores que usan IA y que pueden no darse cuenta de sus deficiencias como herramienta de escritura.
Además, inciden en que su perspectiva no es la de rechazo absoluto de la inteligencia artificial, sino de la integración de forma responsable: «El propósito de este proyecto no es restringir o prohibir el uso de IA en artículos, sino verificar que su resultado sea aceptable y constructivo y, en caso contrario, corregirlo o eliminarlo», indican.
Fácilmente reconocible (de momento)
Tal y como han contado algunos miembros del proyecto, normalmente es bastante sencillo reconocer cuándo un texto ha sido escrito por IA. Esto es debido al ya muy conocido estilo de escritura de bots como ChatGPT, que suelen usar siempre la misma estructura y tono.
Lo que cuesta más es identificar las referencias falsas. Los artículos de Wikipedia, de forma similar a los artículos académicos, usan de manera estricta referencias para ser transparentes sobre las fuentes de información. ChatGPT es perfectamente capaz de inventarse nombres de revistas o artículos científicos falsos, por lo que para comprobar la veracidad de una referencia, los revisores tienen que pinchar o entrar manualmente en el enlace aportado.
Es posible que ChatGPT enlace a una publicación real, pero que no incluya exactamente la información que el bot dice. Si hablamos además de revistas o fuente escritas en otros idiomas, la labor de los revisores se complica.
También han creado una página en la que se pueden ver todas las fotografías o imágenes falsas, creadas por IA, que se han localizado en Wikipedia, y eliminado de los artículos en las que se incluyeron. También se incluyen las que, tras ser revisadas, han sido aceptadas por juzgarse que ofrecen una representación correcta del objeto o tema a tratar, pese a que hayan sido generadas por IA.
Con todo ello, los defensores de Wikipedia no se desalientan ante el posible boom de información falsa entrando en IA, y se organizan para revisar poco a poco los contenidos que se han etiquetado como posiblemente manipulados.