POLÍTICA DE USO DE INTELIGENCIA ARTIFICIAL (IA) EN LA REDACCIÓN DE DOCUMENTOS CIENTÍFICOS

POLÍTICA SOBRE EL USO DE LA INTELIGENCIA ARTIFICIAL (IA) EN LA REDACCIÓN DE DOCUMENTOS CIENTÍFICOS

Revisado en febrero de 2025.

Introducción

Esta Política establece directrices sobre el uso de herramientas de Inteligencia Artificial (IA) en la producción de documentos científicos, con el objetivo de garantizar la integridad académica, la transparencia y la responsabilidad del autor. Está alineada con las recomendaciones presentadas en las "Directrices para el Uso Ético y Responsable de la Inteligencia Artificial Generativa: Una Guía Práctica para Investigadores" (Sampaio; Sabbatini; Limongi, 2024), considerando las especificidades de la producción de documentos científicos, incluidos artículos, tesis, disertaciones, informes y otros.

Definiciones. Herramientas de IA: Sistemas automatizados que ayudan en la escritura, revisión, traducción, análisis de datos, generación de contenido u otras tareas relacionadas con la producción de documentos científicos. Estos incluyen, pero no se limitan a, modelos de lenguaje grandes (LLMs), como ChatGPT o DeepSeek, y/o herramientas especializadas, como generadores de imágenes o software de análisis estadístico. IA Generativa: Sistemas de IA capaces de generar contenido nuevo, como texto, imágenes, código, etc. Autoría: Contribución intelectual significativa a la concepción, ejecución, análisis y redacción del trabajo. Las herramientas de IA no pueden ser mencionadas como coautoras. La responsabilidad sobre el contenido del documento recae únicamente en los autores humanos. Principios Generales Complementariedad, no sustitución: El uso de herramientas de IA debe complementar y no reemplazar la contribución intelectual de los autores. La contribución intelectual humana debe ser predominante (al menos un 70% del contenido). Responsabilidad del autor: Los autores son totalmente responsables de la precisión, originalidad e integridad del trabajo. La herramienta de IA es un instrumento auxiliar y no la fuente principal de ideas o resultados. Transparencia y divulgación: Los autores deben declarar explícitamente, en la Declaración de Uso de IA, el uso de sistemas y/o herramientas de IA, especificando: El nombre y la versión de la herramienta o sistema utilizado. El propósito específico del uso (por ejemplo, generación de resúmenes, revisión gramatical, asistencia en la estructura del texto). El alcance del uso, incluido el porcentaje estimado de contenido generado o modificado por la IA. Se debe llevar un registro detallado del uso de IA y presentarlo como anexo a la Declaración de Uso de IA firmada por el(los) autor(es). Integridad Científica: Los autores deben verificar rigurosamente la precisión y veracidad de cualquier contenido generado por IA. Se deben considerar explícitamente las limitaciones y sesgos inherentes de los sistemas y herramientas de IA. Formación y Competencia: Las instituciones deben proporcionar formación obligatoria sobre el uso ético y responsable de la IA en la producción de documentos científicos. Los autores deben demostrar competencia en el uso crítico de las herramientas de IA empleadas. Privacidad y Seguridad de Datos Todos los datos utilizados en sistemas y/o herramientas de IA deben ser manejados de acuerdo con las normativas de protección de datos vigentes (por ejemplo, LGPD en Brasil, GDPR en Europa, etc.). No se debe ingresar información sensible o confidencial en sistemas públicos o inseguros de IA. Derechos de Autor Los autores deben asegurarse de que el uso de IA no viole los derechos de autor de terceros. El contenido sustancialmente generado por IA debe ser claramente identificado y se debe verificar su originalidad. Proceso de Revisión y Apelación. Los revisores deben recibir orientación específica para evaluar documentos que hayan utilizado herramientas de IA, considerando los principios de transparencia e integridad aquí establecidos. La evaluación debe tener en cuenta el nivel de contribución de IA y la claridad de la descripción de su uso por parte del autor. Se puede establecer un comité de ética de IA para adjudicar casos complejos o apelaciones. Sanciones y Cumplimiento El incumplimiento de esta política puede resultar en el rechazo del documento, su retractación u otras sanciones. Los casos de mala conducta se investigan siguiendo procedimientos institucionales preestablecidos. Actualizaciones y Revisión

Esta política se revisará anualmente para incorporar avances tecnológicos y comentarios de la comunidad académica, manteniendo su alineación con las mejores prácticas y recomendaciones éticas.