La Inteligencia Artificial ¿sin género?: Retos, oportunidades y peligros

 
Durante dos días se ha celebrado la jornada dedicada a la Inteligencia Artificial y la cuestión de género, con la participación de varias figuras del Derecho y la Universidad


La Vicepresidenta del Consell, Mónica Oltra reclama el uso de las herramientas de la IA para reducir el patriarcado en la sociedad





“La IA tiene perspectiva de género y la brecha de género en las áreas tecnológicas y en la ciencia es doble.” 
Oltra ha denunciado “las respuestas sumisas ante la violencia machista” y se ha referido a los asistentes personales virtuales como Siri o Alexia, “que siempre son femeninos y donde se proyecta el servilismo femenino como mujeres jóvenes porque son siempre las que dan soporte a las sociedades” durante la Jornada dedicada a la “Inteligencia Artificial. ¿Sin género?: Retos, oportunidades y peligros” que se ha celebrado durante dos días on line en la Fundación Valenciana de Estudios Avanzados. 

La Vicepresidenta del Consell, Mónica Oltra también se ha referido a cómo, en los países desarrollados de Europa, se tienen los niveles más bajos de mujeres con títulos en Inteligencia Artificial y, por el contrario, “son los países menos desarrollados quienes más mujeres tituladas tienen en estas carreras”.
Oltra ha reclamado que “tenemos una oportunidad de oro para reducir el patriarcado con el uso y las herramientas de la Inteligencia Artificial” y ha recordado que “si el patrón de justicia solamente coge los patrones masculinos, se perjudicará a las mujeres porque sólo las experiencias masculinas serán las que confeccionen los algoritmos y no darán respuesta al 100% de la población, si no solo al 50%” y ha animado a los asistentes virtuales que asistían a la jornada, “a cambiar la ciencia con una mirada inclusiva y feminista que tenga en cuenta a toda la población.”
Captura de pantalla MESA 3 .png
La jornada, organizada junto con la Facultad de Derecho de València, ha tenido dos días de duración y ha contado entre sus ponentes con importantes representantes de la justicia, la universidad y la ciencia como Silvia Barona y Elena Martínez ambas catedráticas de Derecho Procesal, quienes junto a la catedrática de Física, Pas García, introdujeron el tema de la perspectiva de género en la inteligencia artificial.
En la segunda mesa, Pilar Rivas, catedrática de Derecho del Trabajo, Alba Soriano, postdoctoral y Raphaële Xenidis, profesora de leyes tanto en las universidades de Copenhagen como en Edimburgo, quienes hablaron de la discriminación algorítmica y de género.

En la tercera mesa, que se trató ya el segundo día, se trató del aprendizaje automático y la igualdad donde el catedrático de sistemas informáticos, Paolo Rosso explicó el cómo se trata la misoginia en las redes sociales, centrándose en la red social Twitter, quien llegó a reconocer que “los algoritmos son como los ángeles: no tienen sexo. El género se lo ponen los datos” para llamar la atención sobre la importancia de los procesos de anotación de los datos, “porque ahí es donde pueden producirse los sesgos”.
Elisa Simó explicó diversas sentencias donde se pueden detectar los estereotipos de género y Jose Luis González, de la Secretaria de Estado de Seguridad del Ministerio del Interior, dio un breve y rápido avance sobre el sistema informático VioGen “que facilita el seguimiento de la violencia de género en España”.

Captura de pantalla MESA 4.2.png
En la cuarta y última mesa, se trató el paradigma de la Inteligencia Artificial confiable, donde intervinieron Gemma Galdón, CEO y fundadora de Éticas quien abogó por conseguir una IA de confianza y responsable para lo que se debería “auditar los algoritmos para evitar los impactos negativos sobre colectivos susceptibles”. 
Andrés Boix, profesor de derecho Público en la Universitat de València, advirtió ante la “insuficiencia en cuanto a las garantías que aseguren la transparencia y la participación ciudadana ya que el algoritmo tiene que ser público y permitir siempre que lo impugne como reglamento que es”, enfatizó el profesor valenciano.

 Por su parte, la profesora de Derecho Civil en la Universitat de València, Mª Luisa Atienza, habló de la responsabilidad civil por los daños causado por los sistemas de inteligencia artificial e Iñaki Esparza, catedrático de Derecho Procesal de la Universidad del País Vasco explicó que “no hay desarrollo posible de la Inteligencia Artificial sin datos y, muchos de ellos son de carácter personal, por lo que tiene que haber un control y una protección de esos datos”.


Captura de pantalla (15).png
La clausura de la jornada la realizó la Decana del Colegio de Abogados de Valencia, Auxiliadora Borja, quien advirtió que “el factor humano es determinante y necesario en la Inteligencia Artificial”. Para Borja, “si dejamos y dependemos solo de la IA correremos el riesgo de avanzar hacia una singularidad legal ya que la Inteligencia Artificial no puede sustituir a la empatía, la conciencia, el razonamiento jurídico y humano que damos los abogados y además -enfatizó- las aplicaciones de la IA se basan en jurisprudencia y en los datos existentes y muchas de las decisiones vienen afectadas por muchos perjuicios, errores del pasado, de sesgo que puede llevar al quebrantamiento de los derechos esenciales y a la discriminación de género, raza o edad”.
La Decana de ICAV afirmó que “la judicatura, los operadores jurídicos interpretamos las leyes teniendo en cuenta las circunstancias y los contextos de cada momento: retórica, argumentación… y la imprecisión y ambigüedad de algunas leyes solo pueden ser interpretadas por seres humanos, con sentido común, conciencia y ética”.



volver
Covid y libertades (3)
Se ha celebrado la tercera mesa redonda dedicada a la incidencia de la COVID-19, en este caso, en el marco de su influencia en el
^
Fundación Valenciana de Estudios Avanzados 
C/ Pintor López, 7-1º Valencia 46003 
96.392.06.04/03 
Este sitio web utiliza Cookies propias y de terceros, para recopilar información con la finalidad de mejorar nuestros servicios, para mostrarle publicidad relacionada con sus preferencias, así como analizar sus hábitos de navegación. Si continua navegando, supone la aceptación de la instalación de las mismas. El usuario tiene la posibilidad de configurar su navegador pudiendo, si así lo desea, impedir que sean instaladas en su disco duro, aunque deberá tener en cuenta que dicha acción podrá ocasionar dificultades de navegación de la página web. Puede encontrar más información en nuestra Política de cookies.