Microsoft pone un alto a su inteligencia artificial que detecta emociones

Microsoft dejará de vender la información sobre emociones de las personas a terceros. A partir de hoy, estos datos datos no estarán disponibles para los nuevos usuarios que usen su API Face.

No todas las inteligencias artificiales son recibidas con los brazos abiertos. Mucho menos si estas han sido diseñadas para aprovechar tus emociones y características físicas al momento de recomendarte productos y servicios. Microsoft parece haber aprendido la lección, y ha comenzado a retirar esta tecnología de sus servicios.

Por si no lo sabías, Microsoft cuenta con una IA que es capaz de reconocer las emociones de las personas, así como su edad, género y tipo de cabello. Por supuesto, esto ha llevado a varios organismos a levantar la voz en pro de la privacidad.

Mientras que algunos veían potenciales usos para la discriminación y otros tipos de abusos con el uso de esta IA, el problema también va un poco más allá. Específicamente, al terreno de la privacidad. Después de todo, este tipo de características se consideran a la hora de ofrecer recomendaciones de productos y servicios. Aunque en un principio podría no parecer tan grave, ¿realmente es ético comerciar con las emociones de una persona? ¿Qué pasa si terminas ofreciendo productos potencialmente nocivos para el estado emocional de alguien?

Así, esta herramienta ha dejado de funcionar oficialmente a partir de hoy, al menos para los nuevos usuarios de la plataforma. Aquellos que se encuentren suscritos a ella tendrán hasta el 30 de junio de 2023 para aprovecharla.

No es el fin de la API Face de Microsoft

Aunque el programa acaba de recibir esta modificación entre sus características disponibles, no es su fin. La API Face de Microsoft seguirá funcionando, y la compañía planea seguir integrándola en tecnologías de accesibilidad. Entre ellas, han mencionado a Seeing AI, una inteligencia artificial que tiene la capacidad de mejorar la experiencia de aquellos usuarios que cuenten con problemas de visión.

Estos cambios llegan como una sorpresa para muchos. Sin embargo, forman parte del Responsible AI Standard, una nueva forma de interacción entre la inteligencia artificial que, según Microsoft, “se encuentra dirigida por los principio éticos y pone a las personas primero”.

Hoy compartimos públicamente el Responsible AI Standard de Microsoft, un marco para guiar la construcción de sistemas de IA. Es un paso importante en nuestro camino para desarrollar una IA mejor y más fiable. Publicamos nuestra última norma de IA responsable para compartir lo que hemos aprendido, invitar a los demás a dar su opinión y contribuir al debate sobre la creación de mejores normas y prácticas en torno a la IA.

Microsoft

Preparando el futuro de la IA

Este estándar fue introducido en el año 2019. No obstante, no ha sido hasta ahora que ha recibido su primera gran actualización.

La inteligencia artificial, como ya se ha demostrado, puede ser una herramienta bastante útil. Sin embargo, aquellas que cuentan con reconocimiento facial —o cualquier tipo de reconocimiento biométrico— deberían contar con una mayor cantidad de regulaciones.

Después de todo, no estamos poniendo en juego el mero aspecto físico de un ser humano; estamos creando las bases de la interacción entre estas personas con el mundo tecnológico que los rodea diariamente. ¿Qué sucede si dejamos que cualquier parte de nuestro cuerpo y nuestros pensamientos se comercialice sin consentimiento o retribuciones?

Vía | Microsoft pone un alto a su inteligencia artificial que detecta emociones (hipertextual.com)