Marina Bericua, Microsoft

“A veces, parece que estamos en un escenario apocalíptico cuando discutimos sobre la IA”, dice la directora de asuntos públicos, corporativos y legales de Microsoft Argentina y Uruguay
LinkedIn
Twitter
Facebook
WhatsApp
Email

“Está bien que la mujer haya liderado este tema, ¿pero podría venir tu ingeniero a presentar al directorio de nuestra compañía?”

Esta solicitud es más común de lo que se imagina y refleja una complejidad mayor en el cierre de la brecha de género en el desarrollo de la Inteligencia Artificial (IA), según explica Marina Bericua, directora de asuntos públicos, corporativos y legales de Microsoft Argentina y Uruguay, y miembro del grupo de liderazgo global de Women’s ERG (grupo de recursos para empleados) de la empresa.

Para Bericua, la diversidad es fundamental en la IA, ya que ésta tiende a replicar sesgos presentes en los equipos que la desarrollan. Por esta razón, es crucial construir equipos diversos en su diseño, entrenamiento y revisión posterior.

Para mitigar los sesgos en los algoritmos, la empresa inversora de Chat GPT y desarrolladora de Copilot crea intencionalmente equipos de desarrollo diversos, no solo en términos de género, sino también en su composición interdisciplinaria. Esto significa que, además de ingenieros, incluyen expertos en abogacía, sociología, ética y otras áreas.

A pesar de la mejora en la inclusión de mujeres en la composición de equipos, Bericua señala que “notamos una dificultad mayor para las mujeres que trabajan en equipos técnicos de tecnología, en comparación con aquellas de otras áreas, en lo que respecta a la retención y avance de sus carreras”. Según la experta, estas mujeres experimentan más microagresiones o falta de reconocimiento de su senioridad, como la representada al inicio de esta entrevista.

“Es un problema complejo. No se trata solo de apoyar escuelas y universidades, o de tener políticas de contratación intencionales para atraer a mujeres, sino también de tener representación en posiciones de liderazgo”, explica Bericua. “Al final del día, en una compañía con fines de lucro, el avance profesional está relacionado con escalar la pirámide corporativa, y si no se ofrecen oportunidades de liderazgo, por más impecable que sea la mujer técnicamente, se corta el flujo virtuoso que se desea generar”, añade.

– Me parece interesante el hecho de involucrar a clientes y proveedores en las políticas de diversidad e inclusión.

Sí, nosotros abordamos la diversidad con nuestros proveedores o partners. Al comienzo del onboarding, implementamos un completo programa de capacitación, políticas y un código de conducta al que los proveedores deben adherirse y cumplir.

Además, involucramos a nuestras empresas socias en estas conversaciones y actividades, como en programas de género con escuelas primarias y secundarias.

Sin embargo, la realidad es que muchas de estas empresas ya están avanzadas en su transformación, especialmente las más pequeñas con las que trabajamos en América Latina a nivel local o regional. Me ha tocado hablar con ellas y descubrir que tenían programas más avanzados que los nuestros en materia de diversidad.

En el caso de los clientes, no son necesariamente a empresas de tecnología, sino que pertenecen a grandes industrias, como las de energía o hidrocarburos, donde aún existen brechas enormes.

– En los últimos años hemos visto a mujeres en tecnología abandonando sus puestos, especialmente aquellas en posiciones de liderazgo porque percibe que su empresa no apoya esfuerzos de diversidad, algo que Gartner ha llamado ‘The Great Breakup’. ¿Has visto un fenómeno similar en Microsoft?

– Como parte del grupo de liderazgo global de Women’s ERG, recibo mucha información sobre lo que está sucediendo entre las mujeres. Al menos dentro de Microsoft, no he observado este fenómeno como resultado de un techo de cristal o de la falta de promoción de la diversidad.

Lo que sí he notado, tanto en equipos técnicos como no técnicos, es el impacto de la pandemia. En primer lugar, muchas mujeres han dejado sus empleos debido a las cargas de cuidado que aún persisten. Además, muchas empresas de tecnología han cambiado sus políticas flexibles previas a la pandemia y han pasado a exigir una presencialidad total.

Entonces, las mujeres sienten que sus empresas no están comprendiendo la carga particular que enfrentan, la cual es mayor que la de los hombres.

Además, el mundo de la tecnología presenta una vorágine particular que puede generar una sensación de inestabilidad. Esto obliga no solo a las mujeres, sino a todos, a adaptarse, ser flexibles y cambiar. Sin embargo, para las mujeres, cuando las cuestiones relacionadas con las cargas de cuidado no se resuelven, esta combinación puede ser explosiva.

Hablemos de Inteligencia Artificial

– Hablemos de lo técnico de la IA. ¿Cómo podemos estar seguros de la diversidad y sesgo cuando a la IA o machine learning se le dice caja negra?

– Es un tema que hay que verlo por partes. Por ejemplo, ¿qué es la IA? Es un modelo entrenado usando y que te proporciona respuestas basadas en esa información. 

En el caso de ChatGPT, es un modelo entrenado con datos de internet hasta cierto punto del tiempo. Luego, cuando Microsoft financia su desarrollo, se realiza un proceso iterativo de entrenamiento para eliminar sesgos.

Luego nos preguntamos ¿para qué vamos a usar el modelo? ¿Se utilizará para reconocimiento facial por parte de las fuerzas de seguridad? En ese caso, decidimos que no.

Además, si una empresa quiere comprar el modelo en crudo, le preguntamos para qué lo va a usar y recomendamos usar un framework de revisión para eliminar sesgos. También, contractualmente, establecemos que el modelo no debe ser usado para algo que infringe los derechos de las personas, y se realiza una revisión anual de su uso.

Por supuesto, el internet tiene sesgos inherentes, ya que la información proviene de personas, que también estamos sesgados. Si me preguntas si es posible crear un modelo que saque un output sin sesgos desde el principio, te diría que es imposible.

– ¿Debemos regular el uso de la IA?

Siempre estoy buscando abordar los riesgos éticos y legales de manera productiva. En mi experiencia, al tratar con reguladores, he notado que la IA presenta desafíos significativos, aunque no necesariamente nuevos. Sin embargo, estos desafíos parecen más prominentes debido a la amplia participación en la discusión.

Cuando converso con otras empresas de tecnología, les digo: donde no hay debate, no hay regulación. Y donde no hay regulación, pueden surgir dos escenarios: que no haya obstáculos para la innovación, pero también que la tecnología no sea adoptada, según cómo la sociedad perciba sus riesgos o desafíos.

Creo que debemos convivir con esta realidad. Debemos establecer una regulación sólida sobre los usos de la IA, así como establecer estándares que las grandes empresas deben cumplir y hacer cumplir a sus clientes y a su cadena de valor. Esto nos permitirá crear un ciclo virtuoso en torno a una tecnología con el potencial de transformar el mundo.

Me re angustio porque, a veces, estas discusiones se centran en el miedo y pavor. Bajemos la conversación a ejemplos concretos, políticas claras, regulaciones específicas y usos prácticos. Al discutir cada aspecto de manera detallada, evitaremos perder la oportunidad de aprovechar estos modelos en el futuro.

– Por ejemplo, cuando Gartner dice que para el 2030 la mayoría de los datos que se van a usar serán sintéticos, genera alarmas porque podrían generar sesgos sobre los sesgos.

Es un tema relevante que algunas decisiones requieren intervención humana. En Microsoft, creemos que siempre debe haber una revisión humana en todo momento. Por eso, a nuestra IA generativa le llamamos Copilot.

Por ejemplo, recientemente tuve que hacer un resumen sobre asuntos gubernamentales de Uruguay mientras me dirigía a la oficina después de dejar a mi hija en el colegio. Utilicé Copilot para esta tarea, especialmente porque el impacto de cometer un error en este resumen es mínimo.

Es fundamental establecer regulaciones y marcos para el uso de la IA en distintos contextos. Por ejemplo, si la IA se utiliza en un contexto donde un error no afecta a nadie, se aplican condiciones y revisiones específicas diferentes a aquellas en situaciones críticas.

Estos son aspectos que a menudo pasamos por alto en nuestras discusiones. Aunque puedan parecer detalles menores, son fundamentales para un debate profundo y significativo. Me preocupa cuando las discusiones sobre la IA se mantienen en un nivel superficial, sin adentrarse en estos aspectos cruciales.

El diablo está en los detalles, y como empleada de una empresa de tecnología, constantemente reflexiono sobre los riesgos y su funcionamiento, pero no veo esta actitud en otros. A veces, parece que estamos en un escenario apocalíptico cuando discutimos sobre la IA.

– Cuando estudios dicen que el 80% de los trabajos de las mujeres van a ser reemplazados por la IA, parece un mundo apocalíptico.

– Por eso te digo, cuando alguien te dice que la IA te va a agrandar la brecha yo te digo ‘depende’. Porque yo, como madre, en el momento que la IA me haga las compras del supermercado, la brecha se acortó.

Creo que a veces pecamos de tener una mirada partisana sobre los temas. Pero la realidad es que son mucho más complejas. Por ejemplo, cuando nos preguntamos por qué el 80% se verá afectado, se podría argumentar que la IA será utilizada para la contratación y que los sistemas cometerán errores. En este punto, es evidente la necesidad de una revisión humana.

Pero también es importante considerar que las tareas que se automatizarán suelen ser aquellas de menor nivel y con menos valor agregado. Esto nos enfrenta a una realidad preexistente: las mujeres suelen ocupar estos puestos. Sin embargo, debemos reconocer que esto no es culpa de la IA, sino de políticas laborales creadas por seres humanos.

Ahí tenemos dos opciones: que no haya IA o corregir las deficiencias de nuestras políticas que van antes de la IA.

LinkedIn
Twitter
Facebook
WhatsApp
Email
Translate »