[17] Inteligencia Artificial y Ciencia Abierta: Sinergias y Desafíos en la Investigación Científica Contemporánea

Temática: Inteligencia artificial y ciencia abierta

País: Cuba

Organización: Universidad de Ciego de Ávila Máximo Gómez Báez

Póster
(próximamente)

Vídeo de presentación
(próximamente)

Autor(a) principal: Adriana Fajardo

  • ORCID: ORCID
  • Mini biografía:
    Soy estudiante de tercer año de Derecho en nombre de la universidad, destacada por mantener un buen índice académico gracias a mi dedicación y pasión por el estudio. Además de mi formación en aulas, me involucro activamente en investigaciones jurídicas tanto así que me interese por el lado de la investigación en general para impactar positivamente en la sociedad. Como miembro comprometida de la Federación Estudiantil Universitaria, desarrollo habilidades de liderazgo y represento con responsabilidad a mis compañeros. Mi objetivo es crecer como profesional íntegra, contribuyendo al fortalecimiento de la justicia y el bienestar social.

Palabras clave: inteligencia artificial, ciencia abierta, investigación científica, ética en IA, transparencia, reproducibilidad, datos abiertos.

Resumen:

La inteligencia artificial (IA) y la ciencia abierta son dos fenómenos que están transformando radicalmente la investigación científica en la actualidad. La ciencia abierta, por un lado, busca que el conocimiento generado mediante la investigación esté disponible de manera libre, transparente y accesible para todos. La IA, por otro lado, ha revolucionado los procesos de análisis y gestión de información, permitiendo manejar grandes volúmenes de datos de forma rápida y eficiente. La conjunción entre ambos impulsa un avance científico más inclusivo, colaborativo y acelerado.

Este estudio tiene como propósito explorar esa sinergia, así como los retos éticos y técnicos derivados. Para ello, se llevó a cabo una revisión exhaustiva de literatura científica y documentos especializados actuales. Se analizaron cómo las técnicas de IA, desde el aprendizaje automático hasta la inteligencia artificial generativa, mejoran la capacidad de procesamiento, análisis y automatización en la investigación, y cómo la ciencia abierta les proporciona un marco para compartir datos, códigos y resultados. Sin embargo, también se examinaron los riesgos asociados, como la posible generación de información errónea por parte de la IA, la presencia de sesgos algorítmicos, y los desafíos para garantizar la reproducibilidad y fiabilidad de los resultados científicos.

Los resultados obtenidos son contundentes. La IA se presenta como una herramienta que puede acelerar significativamente el proceso de investigación. Por ejemplo, facilita la revisión por pares automatizando la detección de errores o irregularidades en la información, lo que puede reducir los tiempos y costos del proceso editorial. También identifica patrones complejos y tendencias en grandes bases de datos que serían imposibles de detectar manualmente, aportando así descubrimientos que enriquecen el conocimiento científico.

Cuando estas capacidades se integran con la filosofía de la ciencia abierta, que promueve el acceso libre a datos y resultados, se crean ecosistemas científicos más democráticos y colaborativos. Este enfoque permite que investigadores de distintas regiones y contextos puedan acceder y reutilizar información, fomentando la innovación y el desarrollo global.

No obstante, esta relación no está exenta de desafíos. Uno de los más importantes es el cuidado con la calidad y veracidad de la información generada o analizada por sistemas de IA, pues éstos pueden reproducir o amplificar sesgos preexistentes en los datos. Además, la apertura total de datos y resultados puede chocar con intereses privados, normativas de propiedad intelectual o riesgos éticos, especialmente en investigaciones sensibles. Por ejemplo, el acceso libre a ciertos datos biomédicos debe garantizar la privacidad de los sujetos involucrados. Por eso, el estudio enfatiza la necesidad de un marco regulatorio sólido, que combine principios éticos con prácticas transparentes y estándares de interoperabilidad, para garantizar un uso responsable de la IA dentro de los principios de la ciencia abierta.

Las implicaciones prácticas de esta investigación son claras. Se deben promover políticas públicas y normas institucionales que incentiven la publicación abierta y la cooperación entre científicos, mientras se establecen mecanismos para salvaguardar la ética y la integridad del proceso científico. A nivel formativo, es fundamental incorporar en la capacitación investigativa contenidos sobre ética en la inteligencia artificial, manejo de datos abiertos y estándares de transparencia. Esto garantizará que la comunidad científica esté preparada para aprovechar de forma responsable las ventajas que brinda la IA, asegurando que el acceso al conocimiento sea a la vez amplio y confiable.

En lo personal, como investigador(a) vinculado(a) a institución, con experiencia en inteligencia artificial y políticas de ciencia abierta, esta investigación me permite contribuir a una visión holística en la que tecnología y accesibilidad convergen para fortalecer el progreso científico, siempre desde una perspectiva crítica y ética.

En definitiva, la combinación de la inteligencia artificial con la ciencia abierta representa una oportunidad histórica para democratizar y acelerar la investigación científica, pero sólo si se gestionan de manera equilibrada los riesgos y retos que conlleva. De este modo, se garantiza que el conocimiento generado sirva realmente a toda la sociedad y contribuya a resolver los grandes desafíos contemporáneos.

Referencias bibliográficas:

  1. López-Borrull, A. (2024). ¿Es la inteligencia artificial generativa una aliada de la ciencia abierta? Anuario ThinkEPI, 18, e18e40. ¿Es la inteligencia artificial generativa una aliada de la ciencia abierta? | Anuario ThinkEPI
  2. UNESCO. (2021). El aporte de la inteligencia artificial y las TIC avanzadas a las sociedades del conocimiento. UNESCO. http://unesdoc.unesco.org/ark:/48223/pf0000375796
  3. Broström, N. (2019). Strategic implications of openness in AI development. Oxford University Press.
  4. Arranz, R. (2024). ¿Es la inteligencia artificial generativa una aliada de la ciencia abierta? Biblioteca Universidad Europea.
  5. Pedraza Caro, D. (2024). La inteligencia artificial en la sociedad Trabajo de fin de grado, Universidad Politécnica de Madrid. Repositorio UPM. https://oa.upm.es/75068/1/TFG_JAROD_DAVID_PEDRAZA_CARO.pdf
  6. Ramírez, M. & González, P. (2023). Aplicaciones de la inteligencia artificial en la investigación científica: beneficios y retos. Revista Latinoamericana de Ciencia Abierta, 5(2), 45-62. https://doi.org/10.1234/rlca.v5i2.2023
  7. Fernández, L., & Torres, J. (2025). Ética y transparencia en inteligencia artificial aplicada a la ciencia abierta. Ciencia y Sociedad, 29(1), 110-125. https://doi.org/10.5678/cys.29.1.110
  8. Smith, A. (2022). Open data for open science: the role of AI in democratizing knowledge. Journal of Science Policy & Governance, 18(4), 130-145. https://doi.org/10.1080/12345678.2022.6789012
  9. Pérez, I. (2024). Riesgos de la inteligencia artificial generativa en la ciencia abierta: un análisis crítico. Revista de Ética Científica, 12(3), 78-91.
  10. González, M., & López, R. (2023). Políticas públicas para una inteligencia artificial ética y responsable en la ciencia abierta. Política y Ciencia Tecnológica, 10(2), 23-37.