Política de uso de Inteligencia Artificial (IA)
La revista Gobierno y Administración Pública (GYAP) sostiene su compromiso con los avances tecnológicos globales, reconociendo los beneficios y valor de las herramientas de inteligencia artificial (IA) en la investigación y en los procesos editoriales. Por ello, la revista se GYAP se compromete a garantizar un uso responsable, ético y transparente de estas herramientas, alineandose con los estándares internacionales y principios éticos en publicaciones científicas, entendiendo que esta es una herramineta que no sustituye la autoría o la responsabilidad humana tanto para autores, revisores y editores, es el pensamiento crítico humano el que debe prevalecer (Scielo, 2023; COPE, 2024; Penabad et al., 2024; Elsevier, 2025).
En esta línea, la confidencialidad y protección intelectual al interactuar con modelos de IA debe ser resguardada, siendo obligación de para la revista y sus colaboradores (revisores y editores) mantener los manuscritos como documentos confidenciales y no cargarlos (o partes de estos) en herramientas de IA, de esta manera proteger los derechs de autor y la privacidad de los datos (Penabad et al., 2024; Elsevier, 2025).
Considerando los estándares internacionales (Scielo, 2023; COPE, 2024; Penabad et al., 2024; Elsevier, 2025), la GYAP por medio de su política de uso de inteligencia artificial (IA) establece directrices de uso adecuado de IA en la producción y proceso editorial.
Para autores
Uso ético y declaración
Los autores y autoras que utilicen IA en algún momento del proceso de desarrollo de su manuscrito deben declarar la utilización de esta de manera explícita en el apartado de la metodología de sus textos y en la sección que resulte pertinente, sumado a que deberan comunicarlo al equipo editorial de manera oportuna y pertinente, explicando:
- Herramienta/s utilizada/s.
- Momento/s de la investigación en que fue utilizada.
- Contribución de la herramienta IA a su investigación.
De esta manera, aseguran un actuar ético de producción científica, así como, también contribuyen al saber científico y nuevas metodologías.
Responsabilidad y transparencia
Los autores y autoras son responsables de los datos generados con apoyo de la IA, por lo que mantener la transparencia de su utilización no solo fomenta la confianza en el proceso de investigación realizado, sino que también permite contribuir al saber científico.
Prohibición de la autoría de IA
Cualquier uso de IA debe ser instrumental, es decir, esta debe ser utilizada como una herramienta más, sin otorgarle reconocimiento de autoría. En esta línea la GYAP busca mantener la integridad del proceso científico, estableciendo que:
- No se aceptan manuscritos con IA como autor o coautor.
- Cualquier uso/contribución de IA debe ser claramente declarado, indicando la herramienta utilizada.
- La autoría es estricta y exclusivamente humana, ya que esta implica responsabilidades que las tecnologías no pueden asumir.
- La IA no puede ser parte de las referencias bibliográficas.
- El levantamiento de datos y su interpretación no pueden ser a través de herramientas de IA, deben surgir a partir de una aplicación rigurosa de técnicas e instrumentos.
Uso de IA en imágenes, gráficos y figuras
El uso de IA generativa para la creación o alteración de imágenes no está permitido.
Para el caso de investigacipones cuyo diseño o metodología utilice herramientas de IA para la creación o modificación de figuras, gráficos, otros, deben declarar su uso y describir detalladamente su proceso en el apartado metodológico y donde resulte pertinente.
Esto con el fín de garantizar que cualquier imagen o figura mantenga la autenticidad y no exprese una manipulación engañosa, no altere resultados de investigación, permita una labor de evaluación y valoración, y otros aspectos que pudiesen juzgarse relevantes para la GYAP en su objetivo de mantener la integridad del proceso científico.
Se pueden conceder excepciones en determinadas situaciones, por ejemplo, para imágenes o vídeos en manuscritos que traten específicamente sobre IA o aprendizaje automático. Dichas excepciones se evaluarán caso por caso y se deben divulgar en el momento de la presentación.
Transparencia para lectores
La GYAP verifica, y los autores deben proporcionar la información que permita establecer:
- Los contenidos asistidos o generados por IA, no infringen con derechos de autor.
- Las herramientas utilizadas cumplen con las políticas de licencias correspondientes.
Uso de herramientas de IA en proceso de revisión y edición
La GYAP puede utilizar herramientas de IA para apoyar los procesos editoriales. Esto puede ser para la detección de plagio, el análisis de metadatos, y la evaluación de calidad del lenguaje.
Para estas razones la GYAP utiliza la herramienta COMPILATIO, para comprobar la autenticidad de los manuscritos, buscando asegurar la integridad académica y la generación de valor científico en las propuestas remitidas para evaluación a la revista.
Responsabilidad editorial de la revista y de autores/as frente al uso de la IA
La revista Gobierno y Administración Pública declara que:
- Se asegura de supervisar que los autores y autoras cumplan con las presentes políticas, por lo que pueden desestimar propuestas que no cumplan con los estándares y lineamientos internacionales exigidos, aquí señalados.
- Se asegura de revisar las declaraciones sobre el uso de herramientas de IA. La ausencia de estas declaraciones justifica que se cuestione la calidad científica de los manuscritos, por lo que pueden ser desestimadas.
- El equipo editorial en cualquier etapa del proceso editorial puede solicitar aclaraciones adicionales antes de aceptación y publicación del artículo.
---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ----------
Referencias
Consejo COPE. (2024). Posición COPE - Autoría and IA - English. Disponible en https://doi.org/10.24318/cCVRZBms
Elsevier. (12 de noviembre de 2025). Generative AI policies for journals. https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals
Penabad-Camacho, L., Penabad-Camacho, M. A., Mora-Campos, A., Cerdas-Vega, G., Morales-López, Y., Ulate-Segura, M., Méndez-Solano, A., Nova-Bustos, N., Vega-Solano, M. F., & Castro-Solano, M. M. (2024). Declaración de Heredia: Principios sobre el uso de inteligencia artificial en la edición científica. Revista Electrónica Educare, 28(S), 1-10. https://doi.org/10.15359/ree.28-S.19967
SciELO. (2023). Guía de uso de herramientas y recursos de Inteligencia Artificial en la comunicación de investigaciones en la Red SciELO. Disponible: https://wp.scielo.org/wp-content/uploads/Guia-de-uso-de-herramientas-y-recursos-de-IA-20230914.pdf






