Académica propone el uso de Inteligencia Artificial para mejorar la experiencia de los usuarios

En formato virtual, la doctora Yu-Ping Hsu, profesora asistente en el Departamento de Tecnología en Ingeniería en la Universidad de Western Illinois, presentó la conferencia magistral “Diseño de experiencias de aprendizaje para la profesión STEM”, pues en sus más de 10 años de trayectoria profesional se ha especializado en metodologías de interacción de usuario aplicadas al aprendizaje.

La ponente agradeció al doctor Raúl Dalí Cruz Morales y al maestro Gonzalo Hedain López Mera, académicos de la Facultad, quienes la invitaron y gestionaron la actividad. Después, los asistentes escucharon la voz de la Inteligencia Artificial Generativa (IAG), que está basada en métodos de aprendizaje profundo que los estudiantes y académicos emplean para desarrollar sus proyectos, en dicha institución de Estados Unidos. 

Después, la ponente comentó que su quehacer se enfoca en estudiar cómo interactúan las aplicaciones con las emociones. A manera de ejemplo, realizó solicitudes en ChatGPT y Craiyon, en la primera escribió un mensaje simple y vago, en la segunda fue más descriptiva y precisa en cuanto a su requerimiento, con el fin de mostrar las diferencias entre ambas.

Siguiendo esta línea, la experta subrayó que para alcanzar el objetivo deseado es vital entender qué es lo que se busca, lo cual se logra recopilando información sobre el tema, por lo que se deben discriminar algunos resultados, para así participar activamente en el proceso de generación de conocimiento.

Asimismo, subrayó que cuando un estudiante utiliza la IAG, es importante identificar o solicitar una explicación sobre las respuestas obtenidas, qué partes se omitieron y cuál fue el producto final que habrá de entregarse como un trabajo propio.

Más tarde, la doctora Yu-Ping Hsu  expuso algunos trabajos que ha realizado con sus alumnos en clase, como un video en el que le solicitaron un guion a ChatGPT, después se implementó una herramienta de texto a audio para crear las imágenes y la música, para finalmente editarlo.

Por último, habló sobre su propuesta de evaluación a partir del reconocimiento de emociones, rasgos faciales y variables biológicas aplicadas en sus alumnos, al interactuar con las IA. Este análisis permitió conocer la experiencia del usuario con el software, identificar las dificultades a las que se enfrentan y cuáles son los factores que agilizan los procesos.
Con capturas de imágenes hechas con una webcam la IA analiza los momentos en los que ocurren cambios en los rasgos faciales y el humor del consumidor. A partir de esto, se obtiene información para llevar un registro, relacionar las posibles emociones con las diferentes variables y determinar si la experiencia es positiva o negativa, “este trabajo nos ayuda a identificar la interacción con el aprendizaje”, concluyó.

María Dolores Elizondo Alvarado

También podría gustarte