Henrik Rudolph, editor en jefe de la revista Applied Surface Science, de Elsevier, se reunió con académicas y académicos de la Facultad de Ciencias y de otras facultades de la Universidad de Chile (24 de octubre) en una charla que analizó las herramientas de inteligencia artificial (IA), como posibles soluciones para mejorar la calidad y productividad en la publicación científica. El encuentro se efectuó en el aula magna del edificio G de la unidad académica.
El destacado editor estuvo junto al Dr. Alfredo Juan, Editor Applied Surface Science.
En la ocasión, ambos recibieron el saludo del Prof. Robert Aufarth, Decano (S) de la Facultad de Ciencias de la Universidad de Chile así como del Dr. Francisco Muñoz, Director del Departamento de Física. El Dr. Gonzalo Gutiérrez, académico del Departamento de Física, fue el encargo de recibirlos en la unidad académica. Asistieron asimismo, académicas, académicos, estudiantes de Doctorado e investigadores de la Universidad de Chile.
En la presentación, el Dr. Rudolph comentó las ventajas y desventajas del uso de herramientas de IA en la publicación científica, incluyendo su capacidad para ayudar en la revisión de literatura, la síntesis y la edición de lenguaje. También se refirió a la autoría, específicamente si una IA puede ser considerada autora de un artículo científico, entre otros temas.
Ética e Inteligencia Artificial: la Dicotomía entre Creatividad y Privacidad en el Uso de Modelos Generativos
El editor en Jefe de Applied Surface Science dijo que el uso de inteligencia artificial (IA) en áreas creativas e investigativas plantea interrogantes profundas sobre los límites éticos y de privacidad que existen en estos modelos. Hoy en día, herramientas como ChatGPT y otros motores de IA procesan enormes cantidades de datos, pero su ética y transparencia son una preocupación en crecimiento.
Destacó que expertos en tecnología han señalado la falta de claridad sobre cómo estos motores manejan la propiedad intelectual y los derechos de autor. El problema radica en que, aunque el uso de estas plataformas es gratuito para muchos, el precio real es la información personal y creativa que los usuarios aportan al sistema. Cada consulta y dato ingresado alimenta los modelos de IA, convirtiendo en accesibles las ideas y conocimientos que podrían haberse considerado como propiedad intelectual.
Además, expresó el Dr. Rudolph, las IA se construyen con bases de datos de entrenamiento que, en ocasiones, contienen materiales protegidos por derechos de autor, resaltando que esto abre una discusión sobre la transparencia de los datos utilizados y la posibilidad de sesgos y errores que el propio sistema pueda incorporar al interpretar información. Algunos expertos destacan que una de las cuestiones éticas más delicadas es el hecho de que estos motores a veces fallan en reconocer y respetar los derechos de autor al responder con información obtenida de fuentes protegidas sin el permiso explícito de los propietarios, resaltó.
Haciendo una referencia a lo que sucede en Europa, el Dr. Rudolph contó que los legisladores avanzan hacia un marco regulatorio que impida el uso de materiales con derechos de autor en sistemas de IA, como una salvaguarda adicional para proteger la propiedad intelectual y la privacidad de los usuarios. Esta iniciativa se enmarca en la necesidad de que los motores de IA declaren públicamente su fuente de datos y establezcan límites claros sobre el uso de información sensible o con copyright.
Las empresas tecnológicas y los desarrolladores de IA tienen la responsabilidad de integrar límites éticos en sus modelos, asegurando que los usuarios comprendan lo que implica el uso de estas herramientas en términos de privacidad y derechos de autor. Esta preocupación no solo afecta a quienes buscan resguardar sus ideas, sino también a quienes creen en la creatividad y la innovación libres de condicionamientos éticos ambiguos.
La IA debe seguir evolucionando, pero también debe hacerlo bajo una estructura ética que proteja tanto a los usuarios como a sus aportaciones, destacó el experto.
Oportunidades y Desafíos Éticos de la IA
La inteligencia artificial (IA) está revolucionando diversos campos, y la producción científica no es la excepción, comentó el Dr Rudolph. Contó que, durante una reciente conferencia, se discutió cómo herramientas de IA como chatGTP están comenzando a ser ampliamente utilizadas en la redacción de publicaciones científicas, desde la mejora del estilo hasta la generación de abstracts y análisis de datos complejos. Sin embargo, estas herramientas plantean dilemas éticos y preguntas sobre la autoría, transparencia y responsabilidad en la investigación.
Añadió que uno de los temas destacados fue el uso de IA para agilizar la identificación de posibles candidatos para experimentos, similar a lo realizado con las vacunas COVID-19, donde el análisis masivo de datos permitió identificar rápidamente los mejores candidatos. Sin embargo, en un contexto académico, la discusión se centra en cómo la IA puede generar textos e ideas que, aunque sean útiles, plantean preguntas sobre el grado de intervención y transparencia en los procesos de investigación.
Para hacer un uso ético y transparente de herramientas como chatGTP, indicó, los científicos deben declarar qué partes de sus textos o análisis han sido generados o mejorados por IA. Esta transparencia se vuelve crucial no solo para la integridad del trabajo científico, sino también para que los lectores puedan evaluar la coherencia y el estilo del contenido presentado.
La posibilidad de delegar parte del trabajo a estas herramientas plantea desafíos de autoría y dependencia de la tecnología. Por ejemplo, muchas editoriales ya utilizan IA para detectar plagio y realizar revisiones preliminares, pero esto genera un debate sobre hasta qué punto la IA debería ser responsable de aceptar o rechazar artículos científicos.
En este contexto, los expertos destacan la importancia de que cada investigador comprenda los límites y capacidades de las herramientas que emplea. "Como cualquier método experimental, si no se entiende por completo, no debería utilizarse de manera indiscriminada", señaló.
Este enfoque responsable y transparente en el uso de la IA en la investigación científica promete facilitar el trabajo, pero no debe reemplazar el juicio crítico y la integridad que definen el quehacer académico.
Riesgos de la Inteligencia Artificial en el ámbito científico
El relator explicó cómo, en ciertos casos, el mal uso de la IA puede llevar a interpretaciones erróneas. Por ejemplo, las expresiones inexactas introducidas en un sistema de IA pueden retroalimentarse, provocando "alucinaciones" o respuestas incoherentes. Además, advirtió sobre la capacidad de ciertos agentes, incluidos los de origen estatal, de manipular los resultados de búsqueda en Google para desinformar al público.
“Es posible utilizar tácticas para que un término de búsqueda específico tenga mayor visibilidad, lo cual ha sido explotado en contextos tanto comerciales como militares”, explicó. Esta dinámica puede facilitar la difusión de noticias falsas, generando confusión y desinformación.
En el ámbito de las publicaciones académicas, el relator destacó el crecimiento exponencial en la presentación de trabajos para su revisión, que aumentó de 1,700 en 2006 a más de 20,000 en el último año. Sin embargo, también señaló que la tasa de aceptación en su revista ha disminuido significativamente, del 58% a menos del 17%, en parte debido al aumento de presentaciones impulsado por herramientas de IA.
El Dr. Henrik Rudolph concluyó con una advertencia: “La IA es una herramienta que debe ser usada con responsabilidad. No puede ser un coautor, ni mucho menos sustituir el trabajo humano, ya que los científicos son los responsables de verificar la exactitud del contenido generado por IA”. Para aquellos interesados en profundizar sobre el uso de IA en la ciencia, recomendó consultar la Academia de Investigación de Elsevier, que ofrece recursos sobre redacción y revisión de trabajos científicos.
Henrik Rudolph es Licenciado en Química y tiene una Maestría en Física de la Universidad de Copenhague y, un Doctorado en el Instituto de Tecnología de California (EE. UU.). En 1990 se unió a la Universidad de Utrecht (Países Bajos) como profesor asociado de física y en 2001 se convirtió en Profesor Titular de física atómica y molecular. Desde 2012 trabaja para el Ministerio de Defensa de los Países Bajos. Sus intereses de investigación incluyen interacciones entre superficies y plasma, funcionalización de superficies, así como reacciones químicas detalladas en superficies.