Fuente: PURIQ 2023, Vol. 5. e507|ISSN 2664-4029|E-ISSN 2707-3602.

Licencia Creative Commons Atribución 4.0 Internacional (CC BY 4.0)

 

Investigación en ciencias sociales, ante el reto de la inteligencia artificial
David Varona-Aramburu, Universidad Complutense de Madrid

_______________________________________

 

Editorial

Desde finales de 2022 vivimos una auténtica revolución provocada por las herramientas de inteligencia artificial. Su impacto promete ser transformador para muchos sectores productivos y, sin duda, uno de ellos será el de la investigación, especialmente en ciencias sociales. Con ChatGPT al frente, nos encontramos con cientos de flamantes aplicaciones que hacen de todo, desde escribir textos de forma automática, a generar audios o vídeos, pasando por todo tipo de soluciones en las que estas tecnologías reemplazan en buena medida el trabajo de las personas.

En el ámbito de los investigadores, estas nuevas herramientas proponen soluciones muy llamativas: desde escritura automatizada de textos científicos, hasta resúmenes de artículos, traducción o análisis de datos. Todas estas nuevas herramientas plantean dudas. ¿Se debe admitir su empleo en la investigación social? Y, si se admite, ¿cómo debe valorarse? ¿Qué papel juega un software generativo que escribe textos a la hora de publicar una investigación? ¿Deben los autores humanos declarar que una parte del texto se ha automatizado? Y, si lo hacen, ¿cuál es el rol de la tecnología? ¿Se debe considerar un coautor más y, por tanto, firmar el artículo, o se debe considerar una fuente?

Como se puede ver, son dudas que nos sitúan ante un tiempo nuevo y desafiante. Cabe pensar que, en unos pocos años o meses, el pesado trabajo de escribir artículos académicos descanse por completo sobre este tipo de tecnologías. Y, entonces, la siguiente duda surge sola: ¿quién ha producido realmente esa ciencia? ¿El investigador o la inteligencia artificial?

En este sentido, académicos de todo el mundo han empezado a pronunciarse y, algunos, desde tribunas de gran repercusión. Es el caso de Holden Thorp, editor jefe de la muy influyente revista Science. Para él, “las máquinas juegan un papel importante, pero como herramientas para las personas que plantean las hipótesis, diseñan los experimentos y dan sentido a los resultados. En última instancia, el producto debe provenir y ser expresado por la maravillosa computadora en nuestras cabezas” (Thorp, 2023)

Sin embargo, no todos los investigadores son tan categóricos como el editor de Science. Desde otra gran publicación, Nature, Van Dis et al (2023) analizan las ventajas que esta tecnología puede aportar a la investigación científica y, entre otras, destacan que “podría reducir la necesidad de ciertas habilidades, como la capacidad de realizar una búsqueda bibliográfica” y aseguran que también “podría introducir nuevas habilidades, como la ingeniería rápida (el proceso de diseño y elaboración del texto que se utiliza para generar modelos conversacionales de IA)”.

También William Castillo-González (2022) considera que productos como ChatGPT son “una herramienta útil para mejorar la comunicación científica al proporcionar una manera más eficiente y accesible de transmitir y comprender la información científica”. En una línea parecida se expresan Lund & Wang (2023). Estos autores apuntan que la inteligencia artificial “tiene un poder considerable para hacer avanzar la academia y la biblioteconomía tanto de formas nuevas que provocan ansiedad como emocionantes. Sin embargo, es importante considerar cómo usar esta tecnología de manera responsable y ética, y descubrir cómo nosotros, como profesionales, podemos trabajar junto con esta tecnología”.

Con una perspectiva más práctica, Lopezosa, Codina y Ferran-Ferrer (2023) han demostrado la utilidad real de ChatGPT en tareas típicas de la investigación. Para estos autores, este servicio “puede ser utilizado como una herramienta eficaz en el proceso de desarrollo de revisiones sistemáticas para generar estados del arte de la literatura académica”.

Además, se está estudiando ya el impacto de la inteligencia artificial en la docencia, otro aspecto que preocupa notablemente a la comunidad académica. Entre los trabajos más recientes publicados en este sentido, destacan los de García Peñalvo (2023). Este autor señala que “las aplicaciones inteligentes de generación de contenidos abren un nuevo espectro de posibilidades educativas gracias a asistentes virtuales con un amplio abanico de posibilidades que aún no se han empezado más que a intuir”. Este mismo investigador considera que, en las aulas, “ignorar o prohibir aplicaciones como ChatGPT no parece el camino”. Coincide así con Codina (2022, 12 de diciembre), quien apuntaba la necesidad de instruir a profesorado y estudiantes en el manejo de estas herramientas, pero siempre dando máxima importancia al pensamiento crítico.

Incluso el propio ChatGPT ha tomado parte en este incipiente debate. La revista BMES, de la Biomedical Engineering Society, ha publicado un artículo escrito por esta herramienta en colaboración con un investigador. En él, la inteligencia artificial reflexiona sobre el empleo de esta tecnología en la educación superior y su impacto en problemas como el plagio. Entre otras conclusiones, apuesta también por el pensamiento crítico que mencionaba Codina y destaca “la necesidad de que las personas sean más críticas con la información que consumen y consideren cuidadosamente las fuentes de la información que comparten” (King, 2023).

Ante un escenario totalmente incierto
Como se ha visto, la academia está prestando una gran atención a la inteligencia artificial y el debate se expande y crece en muchas direcciones. Sin embargo, parece que todas esas direcciones parecen atravesar un punto común: la importancia de la ética.

Investigadores y docentes deberán aprender a utilizar estas nuevas soluciones tecnológicas. Y, rápidamente, las incorporarán a sus rutinas, no solo como objetos de estudio, sino como integrantes de sus metodologías. Y, en todos los casos, deberán hacerlo utilizando la ética como guía: aquellos usos de la inteligencia artificial que pongan en entredicho la ética deberán ser descartados, por atractivos o rentables que resulten.

Solo de esa forma se podrá hacer una ciencia responsable y comprometida con la sociedad a la que debe servir. Y solo así, con un enfoque ético capaz de promover el pensamiento crítico, esa ciencia se podrá convertir también en una docencia capaz de enriquecer y estimular a los estudiantes.

Referencias

Castillo-Gonzalez W. (2022) ChatGPT and the future of scientific communication. Metaverse Bas. App. Res. 1:8.
Codina, L. (2022, 12 de diciembre). Cómo utilizar ChatGPT en el aula con perspectiva ética y pensamiento crítico: Una proposición para docentes y educadores [Blog]. Lluís Codina. https://www.lluiscodina.com/chatgpt-educadores/
King, M. (2023). A Conversation on Artificial Intelligence, Chatbots, and Plagiarism in Higher Education. Cellular and Molecular Bioengineering, 16 (1), 1-2.
Lopezosa, C.; Codina, L.; Ferran-Ferrer, N. (2023). ChatGPT como apoyo a las systematic scoping reviews: integrando la inteligencia artificial con el framework SALSA. Col·lecció del CRICC. Barcelona: Universitat de Barcelona
Lund, B.D. and Wang, T. (2023). Chatting about ChatGPT: how may AI and GPT impact academia and libraries? Library Hi Tech News. En pre-print.
Thorp, H. (2023). ChatGPT is fun, but not an author. Science, 379 (6630), 313.
Van Dis, E. A., Bollen, J., Zuidema, W., van Rooij, R., & Bockting, C. L. (2023). ChatGPT: Five priorities for research. Nature, 614(7947), 224-226.

____________________________________________________________