Ensenada, Baja California, México, 1 de julio de 2022. Para algunos es un instrumento de trabajo, otros la ven como ciencia ficción, hay quienes la aprovechan como negocio, y no falta quien lo percibe como una amenaza, al más puro estilo Big Brother. El hecho es que a 50 años de que comenzó su desarrollo, la Inteligencia Artificial (IA) y sus componentes (técnicas en redes neuronales, aprendizaje profundo, aprendizaje de máquinas) se han convertido en poderosas herramientas de análisis de datos que pueden aplicarse para solucionar una amplia variedad de problemas.
Se trata de un campo que en los últimos años ha dominado la discusión respecto a otras áreas de investigación; que recibe influencia lo mismo de las matemáticas que de la filosofía; de la psicología y la ciencia cognitiva que de los avances en computación para procesar información masivamente, y cuyo propio término, por sugestivo, genera tanto oportunidades como problemas, porque definir cuándo una computadora ha actuado inteligentemente es algo sumamente ambicioso y problemático.
Estas reflexiones forman parte de la charla que ofreció Jesús Favela Vara, investigador en Ciencias de la Computación del CICESE, en el primer coloquio de “Aplicaciones de la Inteligencia Artificial en Ciencia” que se organizó el 29 de junio en este centro de investigación.
El coloquio, según informó Carlos Brizuela Rodríguez a nombre del comité organizador, reunió a 60 participantes de las cuatro divisiones académicas del CICESE, así como del Centro de Nanociencias y Nanotecnología y del Instituto de Astronomía de la UNAM, y tuvo como objetivo conocer el trabajo de los investigadores respecto a IA en las diferentes áreas del conocimiento que se cultivan en el campus Ensenada, inicialmente en el CICESE y la UNAM, para eventualmente extenderlo a otras instituciones.
También procuramos -agregó Carlos Brizuela-, crear conciencia sobre la importancia y las limitaciones de la IA en el trabajo científico, así como identificar oportunidades de colaboración entre los distintos grupos, de manera que se puedan concretar proyectos con estas sinergias.
El coloquio se realizó de manera presencial y en él se ofrecieron dos charlas informativas, una acerca de la IA en ciencias y otra sobre herramientas disponibles para el aprendizaje de máquinas. Se tuvieron además cinco charlas cortas sobre aplicaciones de IA en diferentes áreas del conocimiento, desde astronomía hasta diseño de fármacos; dos charlas cortas sobre problemas que pueden ser abordados con técnicas de IA, y una sesión con 11 posters, que fueron desde la identificación de biomarcadores en voz para identificar demencia en adultos mayores, aplicaciones en aprendizaje por refuerzo y sobre el reconocimiento de lenguaje de señas, entre otros temas.
En la primera charla informativa (“Desmitificando la IA: Aprendizaje de máquina como herramienta de investigación científica”), Jesús Favela aseguró que este campo recientemente ha presentado avances muy importantes y un aumento considerable en el número de publicaciones en revistas científicas, especialmente en el área de aprendizaje de máquina. Tanto, que domina la discusión en muchas de las áreas de investigación.
Dijo que la IA se divide en dos dimensiones: una se refiere a pensar o actuar, y la otra a hacerlo como seres humanos o racionalmente. Así, se tiene una matriz con cuatro variables: sistemas que piensan como humanos, que actúan como humanos, que piensan racionalmente o que actúan racionalmente.
Por años se pensó que la inteligencia, y por extensión, la IA, estaba enfocada a la parte racional, “pero ahora sabemos que en muchas ocasiones no pensamos racionalmente. Hoy por ejemplo se habla de la inteligencia emocional”.
Considerando que los algoritmos base de la IA fueron propuestos hace décadas, y que a mediados de los años 2000 no se consideraba una área muy atractiva (de hecho, algunos consideran que estaba en su tercer invierno), ¿por qué tanto interés hoy en día?
Lo resumió así: primero, por la disponibilidad que se tiene de grandes bases de datos (ImageNet, Wikipedia); luego, por los avances que se tienen en hardware, principalmente en procesadores gráficos; los avances en reutilización de información (cómputo en la nube, los estándares tipo API o los modelos de negocio), y por el desarrollo de herramientas y modelos pre entrenados.
Ejemplificó este desarrollo con el caso del ImageNet Challenge, un desafío de reconocimiento visual que se considera fundamental en el avance de la visión por computadora y el aprendizaje profundo.
ImageNet es una base de datos de imágenes organizada jerárquicamente (según WordNet), en la que cada nodo de la jerarquía está representado por cientos y miles de imágenes etiquetadas.
En 2010, los algoritmos de detección de objetos y clasificación de imágenes a gran escala tenían un margen de error de 28%, utilizando algoritmos que todavía eran de aprendizaje superficial. Dos años después, en 2012, ya con algoritmos de aprendizaje profundo, este porcentaje bajó a 16%. Conforme se continuaron utilizando modelos de redes profundas, este porcentaje continúo bajando año con año. En 2015 el margen de error (3.6%) ya era menor al típico de un ser humano, y en 2017 era apenas de 2.25%.
A manera de conclusiones, Jesús Favela considera que el aprendizaje de máquina se ha convertido en una herramienta muy poderosa de análisis de datos que puede ser aplicada a una amplia variedad de problemas; que las herramientas que existen son versátiles y fáciles de usar, y que están surgiendo nuevos tipos de redes neuronales y modelos pre programados.