CICADA

CICADA

de Claudina Rattaro -
Número de respuestas: 0

a continuación toda la info

------------

en el marco de CICADA (https://cicada.uy) convocamos a estudiantes/as de grado a participar del proyecto de Iniciación a la Investigación Interdisciplinaria titulado "Aspectos éticos, sesgos y discriminación en el uso de datos para la toma de decisiones". La dirección estará a mi cargo y de la Mag. María Goñi (CSIC). Son posiciones remuneradas (gr1 20 hs por 8 meses) durante 2022, y se preveé además la participación en actividades de formación del Espacio Interdisciplinario que pueden ser creditizables. 

Ruego difundir en los cursos en busca de potenciales interesados/as 

La selección la realiza el EI, hay plazo para inscribirse hasta el sábado 2 de octubre a las 14 horas. 

Más info, links a las bases y al formulario de aplicación acá: https://cicada.uy/llamado-para-participar-del-programa-de-iniciacion-a-la-investigacion-interdisciplinaria-para-estudiantes-de-grado/ 

Copio abajo los detalles de la propuesta. 

saludos 
Lorena 

Aspectos éticos, sesgos y discriminación en el uso de datos para la toma de decisiones 

Con esta convocatoria, se propone integrar hasta tres estudiantes en la línea Ética, sesgos y discriminación en la Ciencia de Datos, que se impulsa en el marco del CICADA. Esta es una línea de trabajo incipiente en Uruguay. La toma de decisiones basada en datos ha creado nuevas oportunidades, pero también presenta nuevos desafíos éticos y amplía el conjunto de posibles riesgos que pueden perpetuar las inequidades y los perjuicios a la privacidad de las personas. Si las desigualdades e inequidades - de género, raza/etnia, clase social, orientación sexual, entre otras- que persisten en nuestro contextos sociales no son consideradas en el diseño, recolección, análisis y uso de datos, se puede fomentar su reproducción y profundización. 
Estas consideraciones son muy relevantes cuando se diseñan y aplican soluciones basadas en algoritmos de aprendizaje automático, también conocidos como mecanismos de “inteligencia artificial”. En los últimos años se ha producido mucho conocimiento en esta dirección, desde métodos y métricas que permiten evaluar la equidad de las soluciones 2,3, pasando por propuestas metodológicas para mitigar y reducir los impactos del sesgo [Turner-Lee, 2019], particularmente los que se producen cuando no se toma en cuenta la perspectiva de género. Las discusiones acerca de estos temas están cada vez más presentes en la agenda de gobiernos, la academia y la sociedad civil, y necesitan de un abordaje interdisciplinario que sepa identificar el impacto social que la aplicación de estas técnicas puede tener. Recientemente, han surgido recomendaciones que recopilan buenas prácticas y lineamientos en estos asuntos, como por el ejemplo las propuestas de UNESCO 4 y de la Comisión Europea 5. 

La integración de estudiantes se enmarcará en el desarrollo de esta línea de investigación, con el objetivo de analizar- desde una perspectiva interseccional, donde se toman en cuenta la dimensión de género, sexo, raza-etnia, clase social, entre otras- cómo se diseñan, recolectan, analizan y utilizan los datos en algunas áreas relevantes en nuestro país. 

Se buscará seleccionar casos de estudio (por ejemplo, los sistemas de reconocimiento facial automáticos), y analizarlos a la luz de las recomendaciones internacionales antes mencionadas. En caso de poder acceder a los sistemas y/o datos a analizar, se realizarán experimentos y evaluaciones cuantitativas para dimensionar posibles sesgos existentes. 

Las tareas de investigación a cargo de los/as estudiantes incluirán, entre otras, el relevamiento y sistematización de información primaria de fuentes documentales, la realización de entrevistas y experimentos, y la participación en los procesos de análisis de la información generada. 

La tutoría del equipo de estudiantes se realizará por parte de investigadores de la línea Ética, sesgos y discriminación en la Ciencia de Datos, quienes se reunirán periódicamente. También, se incorporarán a otras actividades formativas y de difusión del Centro, como son los seminarios internos y actividades que vinculan a otros actores por fuera de la Udelar. Con esto se apunta a aportar herramientas y experiencia de la investigación al respecto de este tema particular, fomentando su interés en proyectar su práctica a nivel de posgrado. 

1.    Solon Barocas and Moritz Hardt and Arvind Narayanan. Fairness and Machine Learning. (fairmlbook.org, 2019). 
2.    Fairlearn. https://fairlearn.org/ (2020). 
3.    AI Fairness 360. https://developer.ibm.com/technologies/artificial-intelligence/projects/ai-fairness-360/ (2018). 
4.    UNESCO. Documento final: primera versión del proyecto de recomendación sobre la Etica de la Inteligencia Artificial. (2020). 
5.    Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai (2019).