Descubra cómo su empresa puede crear aplicaciones para automatizar tareas y generar más eficiencias a través de herramientas de código bajo/sin código el 9 de noviembre en la Cumbre digital de código bajo/sin código. Registrarse aquí.
A principios de 2016, Microsoft anunció Tay, un chatbot de IA capaz de conversar y aprender de usuarios aleatorios en Web. En 24 horas, el bot comenzó a emitir declaraciones racistas y misóginas, aparentemente sin provocación. El equipo desconectó a Tay y se dio cuenta de que la ética de dejar que un bot conversacional se soltara en Web period, en el mejor de los casos, inexplorada.
Las verdaderas preguntas son si la IA diseñada para la interacción humana aleatoria es ética y si la IA puede codificarse para mantenerse dentro de los límites. Esto se vuelve aún más crítico con la IA de voz, que las empresas utilizan para comunicarse de forma automática y directa con los clientes.
Tomemos un momento para discutir qué hace que la IA sea ética versus no ética y cómo las empresas pueden incorporar la IA en sus roles de atención al cliente de manera ética.
¿Qué hace que la IA no sea ética?
Se supone que la IA es impartial. La información ingresa a una caja negra, un modelo, y regresa con cierto grado de procesamiento. En el ejemplo de Tay, los investigadores crearon su modelo alimentando a la IA con una gran cantidad de información conversacional influenciada por la interacción humana. ¿El resultado? Un modelo poco ético que perjudicó en lugar de ayudar.
¿Qué sucede cuando una IA recibe datos de CCTV? ¿Informacion private? ¿Fotografías y arte? ¿Qué sale por el otro lado?
Los tres factores más importantes que contribuyen a los dilemas éticos en la IA son el uso poco ético, los problemas de privacidad de los datos y los sesgos en el sistema.
A medida que avanza la tecnología, aparecen diariamente nuevos modelos y métodos de IA, y su uso crece. Los investigadores y las empresas están desplegando los modelos y métodos casi al azar; muchos de estos no están bien entendidos o regulados. Esto a menudo da como resultado resultados poco éticos, incluso cuando los sistemas subyacentes han minimizado los sesgos.
Los problemas de privacidad de datos surgen porque los modelos de IA se construyen y entrenan con datos que provienen directamente de los usuarios. En muchos casos, los clientes se convierten sin saberlo en sujetos de prueba en uno de los experimentos de IA no regulados más grandes de la historia. Tus palabras, imágenes, datos biométricos e incluso las redes sociales son un juego limpio. Pero, ¿deberían serlo?
Finalmente, sabemos por Tay y otros ejemplos que los sistemas de IA están sesgados. Como cualquier creación, lo que pones en ella es lo que obtienes de ella.
Uno de los ejemplos más destacados de sesgo surgió en una prueba de 2003 que reveló que los investigadores habían usado correos electrónicos de una gran cantidad de documentos de Enron para entrenar la IA conversacional durante décadas. La IA entrenada vio el mundo desde el punto de vista de un comerciante de energía depuesto en Houston. ¿Cuántos de nosotros diríamos que esos correos electrónicos representarían nuestro punto de vista?
Ética en la IA de voz
IA de voz comparte las mismas preocupaciones éticas centrales que la IA en normal, pero debido a que la voz imita de cerca el habla y la experiencia humanas, existe un mayor potencial de manipulación y tergiversación. Además, tendemos a confiar en las cosas con una voz, incluidas las interfaces amigables como Alexa y Siri.
También es muy possible que Voice AI interactúe con un cliente actual en tiempo actual. En otras palabras, las IA de voz son los representantes de su empresa. Y al igual que sus representantes humanos, desea asegurarse de que su IA esté capacitada y actúe de acuerdo con los valores de la empresa y un código de conducta profesional.
Los agentes humanos (y los sistemas de IA) no deben tratar a las personas que llaman de manera diferente por motivos no relacionados con su membresía de servicio. Pero dependiendo del conjunto de datos, es posible que el sistema no proporcione una experiencia consistente. Por ejemplo, más hombres llamando a un centro podría resultar en un clasificador de género sesgado en contra de las hablantes femeninas. ¿Y qué sucede cuando los sesgos, incluidos los que están en contra del lenguaje y la jerga regionales, se cuelan en las interacciones de IA de voz?
Un matiz ultimate es que la IA de voz en el servicio al cliente es una forma de automatización. Eso significa que puede reemplazar los trabajos actuales, un dilema ético en sí mismo. Las empresas que trabajan en la industria deben administrar los resultados con cuidado.
Construyendo IA ética
IA ética es todavía un campo floreciente, y no hay muchos datos o investigaciones disponibles para producir un conjunto de pautas completas. Dicho esto, aquí hay algunos consejos.
Al igual que con cualquier solución de recopilación de datos, las empresas deben tener sistemas de gobierno sólidos que se adhieran a las leyes de privacidad (humana). No todos los datos de los clientes son un juego justo, y los clientes deben comprender que todo lo que hacen o dicen en su sitio net podría ser parte de un futuro modelo de IA. No está claro cómo cambiará esto su comportamiento, pero es importante ofrecer un consentimiento informado.
El código de área y otros datos personales no deberían nublar el modelo. Por ejemplo, en Skit, implementamos nuestros sistemas en lugares donde se recopila y almacena información private. Nos aseguramos de que los modelos de aprendizaje automático no obtengan aspectos individualistas o puntos de datos, por lo que la capacitación y las canalizaciones no tienen en cuenta cosas como los números de teléfono de las personas que llaman y otras características de identificación.
A continuación, las empresas deben realizar pruebas de sesgo periódicas y administrar controles y equilibrios para el uso de datos. La pregunta principal debería ser si la IA está interactuando con los clientes y otros usuarios de manera justa y ética y si los casos extremos, incluido el error del cliente, se saldrán de management. Dado que la IA de voz, como cualquier otra IA, podría fallar, los sistemas deben ser transparentes para la inspección. Esto es especialmente importante para el servicio al cliente, ya que el producto interactúa directamente con los usuarios y puede crear o destruir la confianza.
Finalmente, las empresas que consideren la IA deben tener comités de ética que inspeccionen y analicen la cadena de valor y las decisiones comerciales en busca de nuevos desafíos éticos. Además, las empresas que quieran participar en investigaciones innovadoras deben dedicar tiempo y recursos para garantizar que la investigación sea útil para todas las partes involucradas.
Los productos de IA no son nuevos. Pero la escala a la que se están adoptando no tiene precedentes.
Mientras esto sucede, necesitamos reformas importantes en la comprensión y la construcción de marcos en torno al uso ético de la IA. Estas reformas nos llevarán hacia sistemas más transparentes, justos y privados. Juntos, podemos centrarnos en qué casos de uso tienen sentido y cuáles no, considerando el futuro de la humanidad.
Sourabh Gupta es cofundador y director ejecutivo de Skit.ai.
Tomadores de decisiones de datos
¡Bienvenido a la comunidad VentureBeat!
DataDecisionMakers es donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir información e innovación relacionadas con los datos.
Si desea leer sobre concepts de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.
Incluso podrías considerar contribuyendo con un artículo ¡tuyo!