Al igual que las largas etiquetas de nutrición, las llamadas tarjetas de servicio de IA de Amazon serán públicas para que sus clientes empresariales puedan ver las limitaciones de ciertos servicios en la nube, como el reconocimiento facial y la transcripción de audio. El objetivo sería evitar el uso erróneo de su tecnología, explicar cómo funcionan sus sistemas y gestionar la privacidad, dijo Amazon.

La empresa no es la primera en publicar este tipo de advertencias. International Business Machines Corp, un actor más pequeño en la nube, lo hizo hace años. El proveedor número 3 de la nube, Google, de Alphabet Inc, también ha publicado aún más detalles sobre los conjuntos de datos que ha utilizado para entrenar parte de su IA.

Sin embargo, la decisión de Amazon de publicar sus tres primeras fichas de servicio el miércoles refleja el intento del líder del sector de cambiar su imagen después de que un altercado público con críticos de las libertades civiles hace años dejara la impresión de que le importaba menos la ética de la IA que a sus homólogos. La medida coincidirá con la conferencia anual de la empresa sobre la nube en Las Vegas.

Michael Kearns, profesor de la Universidad de Pensilvania y desde 2020 becario de Amazon, dijo que la decisión de emitir las tarjetas se tomó tras las auditorías de privacidad e imparcialidad del software de la empresa. Las tarjetas abordarían públicamente las preocupaciones éticas sobre la IA en un momento en el que la regulación de la tecnología estaba en el horizonte, dijo Kearns.

"Lo más importante de este lanzamiento es el compromiso de hacerlo de forma continuada y ampliada", dijo.

Amazon eligió programas informáticos que abordan cuestiones demográficas delicadas como inicio de sus tarjetas de servicio, que Kearns espera que aumenten en detalle con el tiempo.

TONOS DE PIEL

Uno de esos servicios se llama "Rekognition". En 2019, Amazon rebatió un estudio que afirmaba que la tecnología tenía dificultades para identificar el género de personas con tonos de piel más oscuros. Pero tras el asesinato en 2020 de George Floyd, un hombre negro desarmado, durante un arresto, la compañía emitió una moratoria sobre el uso policial de su software de reconocimiento facial.

Ahora, Amazon dice en una tarjeta de servicio vista por Reuters que Rekognition no admite el cotejo de "imágenes que sean demasiado borrosas y granulosas para que el rostro pueda ser reconocido por un humano, o que tengan grandes porciones del rostro ocluidas por el pelo, las manos y otros objetos". También advierte contra el emparejamiento de rostros en dibujos animados y otras "entidades no humanas".

En otra tarjeta de advertencia vista por Reuters, sobre la transcripción de audio, Amazon afirma: "Modificar de forma inconsistente las entradas de audio podría dar lugar a resultados injustos para diferentes grupos demográficos." Kearns dijo que transcribir con precisión la amplia gama de acentos y dialectos regionales sólo en Norteamérica era un reto en el que Amazon había trabajado.

Jessica Newman, directora de la Iniciativa de Seguridad de la IA de la Universidad de California en Berkeley, dijo que las empresas tecnológicas estaban publicando cada vez más este tipo de divulgaciones como señal de prácticas responsables de IA, aunque aún les quedaba camino por recorrer.

"No deberíamos depender de la buena voluntad de las empresas para proporcionar detalles básicos de sistemas que pueden tener una enorme influencia en la vida de las personas", afirmó, pidiendo más normas para la industria.

Los gigantes de la tecnología han luchado por conseguir que estos documentos sean lo suficientemente breves como para que la gente los lea y, a la vez, lo suficientemente detallados y actualizados como para reflejar los frecuentes retoques del software, según declaró una persona que trabajó en las etiquetas nutricionales de dos grandes empresas.