kirill_makarov - stock.adobe.com
Diversos grupos de talentos y conjuntos de datos ayudan con prejuicios en IA
Llevar a los empleados históricamente subrepresentados a partes críticas del proceso de diseño mientras se crea un modelo de IA puede reducir o eliminar el sesgo en ese modelo.
El sesgo en la IA es un problema grave que puede crear resultados no deseados en los modelos de IA, lo que afecta negativamente a las empresas que los utilizan.
Los proveedores de tecnología pueden ayudar a resolver este problema contratando a diversos empleados para que presten sus puntos de vista sobre los productos de IA creados por los proveedores.
Diversidad adentro, diversidad afuera
"Los insumos inclusivos conducen a resultados inclusivos", dijo Annie Jean-Baptiste, directora de inclusión de productos de Google.
En un panel sobre prejuicios raciales y de género en la inteligencia artificial en la feria de tecnología virtual CES 2021 el 12 de enero pasado, Jean-Baptiste señaló la importancia de incluir múltiples perspectivas, especialmente perspectivas que históricamente han estado subrepresentadas en la industria de la tecnología, en momentos críticos del desarrollo de productos para ayudar a reducir los prejuicios raciales o de género en los modelos de IA.
Cuando Google creó Google Assistant, dijo Jean-Baptiste, el proveedor también lo sometió a pruebas adversas, esencialmente pruebas para tratar de romper el producto, para garantizar que permaneciera imparcial.
Parte de esa prueba implicó traer grupos que tradicionalmente han estado subrepresentados por motivos de raza, género y orientación sexual para encontrar y cambiar las respuestas negativas que Google no quería que el Asistente dijera, y agregar referencias culturales positivas a sus respuestas.
Jean-Baptiste dijo que este paso clave en el proceso de diseño fue un éxito, ya que redujo en gran medida la cantidad de respuestas sesgadas o potencialmente alienantes de Google Assistant.
Mientras tanto, las empresas deben priorizar la contratación de diversos candidatos, dijo la panelista Taniya Mishra, fundadora y directora ejecutiva de SureStart, una empresa que ayuda a las organizaciones a construir una fuerza laboral diversa con capacitación y educación.
Ella dijo que escucha a mucha gente decir que, si bien la diversidad es importante, quieren al mejor candidato. Ese pensamiento, señaló, está equivocado.
En cambio, las empresas deberían decir: "La diversidad es realmente importante, y quiero lo mejor", dijo Mishra, enfatizando que los objetivos tienen el mismo valor.
"No hay problema entre tener un grupo diverso de candidatos y obtener al mejor", dijo.
Si bien se necesita un grupo de talentos diverso para crear diversidad en las organizaciones, también es fundamental construir modelos con conjuntos de datos grandes y diversos, dijo Kimberly Sterling, directora senior de economía de la salud e investigación de resultados en ResMed, un proveedor de IoT de salud.
Los proveedores de tecnología deben utilizar diversos conjuntos de datos basados en poblaciones diversas para desarrollar sus modelos, dijo.
Esto es particularmente importante en la atención médica, ya que ciertos medicamentos o productos pueden funcionar de manera diferente con diferentes tipos de personas. Suponga que una empresa de atención médica crea un modelo predictivo basado en datos tomados en gran parte de hombres blancos. En ese caso, puede escupir predicciones sesgadas o incorrectas al intentar predecir cómo un medicamento, por ejemplo, puede reaccionar con una mujer o una persona de color.
"Cuando tienes conjuntos de datos que no son representativos, terminamos por encontrar situaciones realmente desafiantes", dijo Sterling.
Ella dijo que las empresas deben asegurarse de incluir grupos subrepresentados en toda su recopilación de datos y pruebas de productos.
De manera similar, Mishra dijo que se centró en la tecnología de voz en sus estudios en la Universidad de Ciencias y Salud de Oregon a principios de la década de 2000. Recordó que, en ese entonces, la mayoría de los conjuntos de datos con los que tenía que trabajar consistían en grabaciones de presentadores de noticias.
Principalmente, dijo, las voces en los conjuntos de datos eran de caucásicos con acentos estadounidenses estándar y una forma refinada de hablar. La falta de diversidad le hizo difícil construir modelos de voz que entendieran a diferentes tipos de hablantes, incluidos aquellos con acentos, dijo.
Si bien señaló que los conjuntos de datos de voz han mejorado desde entonces, todavía carecen en su mayoría de datos de niños y ancianos, lo que lleva a muchos modelos de voz a tener dificultades para comprender a esas demografías.
Explicó que los tecnólogos deben concentrarse en recopilar datos de grupos subrepresentados y construir sus modelos de IA con diversos conjuntos de datos.