¿Estudias en la UPM y quieres tener la oportunidad de trabajar en los aspectos éticos de la IA de forma práctica? Se ha publicado una convocatoria de becas de formación para proyectos de innovación educativa que incluye una beca de colaboración a tiempo parcial con el GIE de ética en el segundo cuatrimestre del curso 2024/25.
La beca de colaboración se enmarca en el proyecto de innovación educativa (PIE) CAMELIA (CAsos prácticos sobre el Marco Ético y Legal de la Inteligencia Artificial). El objetivo general del PIE es asegurar la inclusión de las competencias transversales de pensamiento crítico, pensamiento sistémico, anticipación, normativa, estratégica, de colaboración y autoconciencia en las titulaciones relacionadas con la Ingeniería y la Ciencia de datos, y posibilitar que el alumno desarrolle las mismas con un enfoque práctico. Para conseguir este objetivo general, se atacarán dos objetivos específicos:
- Estructuración del conocimiento existente en un repositorio de acceso público
- Elaboración de casos prácticos ilustrativos de los conceptos teóricos de ética de la IA
El alumno elaborará los casos prácticos bajo la supervisión del coordinador del proyecto, procesando datos y desarrollando “cuadernos” de Jupyter en lenguaje Python para los 5 casos prácticos identificados sobre los ejes temáticos clave (previsiblemente relacionados con interpretabilidad, detección y análisis de sesgos, valor del dato, protección de la privacidad y reidentificación). Los casos prácticos se elaborarán utilizando librerías de código abierto y se asegurará que sean reproducibles en equipos estándar como los que los alumnos usan en las clases.
En esta beca el alumno aprenderá a:
- Definir un proyecto de ingeniería que involucre modelos de aprendizaje automático
- Estructurar y diseñar casos prácticos de aprendizaje automático y aplicación de la IA
- Identificar riesgos y dilemas éticos del proyecto en tiempo de diseño
- Interpretar mediante diversas técnicas los resultados y el funcionamiento de modelos de aprendizaje automático
- Detectar sesgos en los datos o en los algoritmos
- Aplicar técnicas de protección de la privacidad a datos que contienen información de identificación personal, y a atacarlas para, por ejemplo, re
–identificar individuos - Aplicar técnicas de estimación del valor de los datos para una tarea de aprendizaje automático de una manera equitativa
Los candidatos a esta beca deben remitir su solicitud al correo electrónico del coordinador/tutor:
About Santiago Andrés Azcoitia
- Web |
- More Posts(9)