Ensenada, Baja California, a 8 de marzo de 2024. La Organización para la Cooperación y el Desarrollo Económicos define a la Inteligencia Artificial (IA) como sistemas basados en máquinas que pueden realizar predicciones, hacer recomendaciones o tomar decisiones que influyen en entornos reales o virtuales.
El desarrollo de tecnologías basadas en inteligencia artificial no es nuevo, pero cada vez se vuelven más accesibles para la sociedad en general y recientemente se ha popularizado una gran variedad de herramientas de Inteligencia Artificial Generativa que destacan por su capacidad de generar datos y crear contenido autónomamente –imágenes, texto, música, voz, datos– en tiempo real a partir de la instrucción humana. Un ejemplo es ChatGPT (Chat Generative Pre-Trained Transformer), lanzado a fines del 2022, y la atención que acaparó socialmente.
En este contexto, la División de Física Aplicada del CICESE organizó recientemente el panel “El uso de la Inteligencia Artificial Generativa en el quehacer científico: cómo funciona, sus beneficios y riesgos”, con la participación de José Antonio García Macías y Edgar Chávez González, investigadores del Departamento de Ciencias de la Computación de este centro; Isabel López Hurtado, posdoctorante en psicología educativa visitante en el CICESE e Isabel Pérez Montfort, traductora y editora de textos científicos adscrita al Centro de Nanociencias y Nanotecnología de la UNAM.
Resistirse al uso de estas tecnologías es inútil; hay que reconocer los beneficios y potencialidades que el uso de la inteligencia artificial generativa puede tener en la academia, pero también los riesgos de daño y prejuicio por lo cual hay que actualizar códigos de ética e incidir en el análisis y el pensamiento crítico que orienten sus usos creativos, coincidieron los panelistas.
Entre los riesgos está la privacidad de datos, los sesgos, la equidad en el acceso a estas tecnologías y el plagio, entre otros. El chat GPT trabaja con base en probabilidades y ahora el problema más grande es el de la imputación, señaló Edgar Chávez González quien recordó la historia de un abogado estadounidense que utilizó ChatGPT sin contrastar la respuesta.
Durante el proceso judicial se reveló que la respuesta proporcionada por ChatGPT no estaba respaldada por la jurisprudencia actualizada, no reflejaba la interpretación jurídica vigente y por lo tanto la fundamentación carecía de base y no fue aceptada por el tribunal.
Las instituciones deben formar grupos multidisciplinarios de trabajo –especialistas en ciencias computacionales, educación, filosofía, humanidades– para crear guías que orienten y normen el uso de la inteligencia artificial, recomendó José Antonio García Macías.
Escribir textos científicos no es fácil; se necesita claridad, concreción y una estructura adecuada para transmitir el conocimiento, y dado que “la ciencia se publica en inglés”, para los estudiantes representa un reto escribir en español y traducir al inglés. Por ello, son bienvenidas herramientas que apoyen esta labor, dijo Isabel Pérez Montfort.
Al respecto, Isabel López Hurtado coincidió al destacar que estas tecnologías representan un apoyo importante, pero hay que tener precaución, no sobre confiar en éstas, “siempre hay que tener un juicio crítico”. Las nuevas tecnologías representan una extensión de nuestros aprendizajes y una oportunidad para saber más.