El nuevo proyecto de ley, llamado Directiva de responsabilidad de AI, agregará dientes a la UE. Ley de IA, que se convertirá en ley de la UE más o menos al mismo tiempo. La Ley de IA requeriría controles adicionales para los usos de IA de «alto riesgo» que tienen el mayor potencial de dañar a las personas, incluidos los sistemas de vigilancia, reclutamiento o atención médica.
El nuevo proyecto de ley de responsabilidad otorgaría a las personas y empresas el derecho a demandar por daños y perjuicios después de haber sido dañados por un sistema de IA. El objetivo es responsabilizar a los desarrolladores, productores y usuarios de las tecnologías, y exigirles que expliquen cómo se construyeron y entrenaron sus sistemas de IA. Las empresas tecnológicas que no siguen las reglas corren el riesgo de demandas colectivas en toda la UE.
Por ejemplo, los solicitantes de empleo que puedan demostrar que un sistema de IA para la selección de currículos los discriminó pueden pedirle a un tribunal que obligue a la empresa de IA a que les otorgue acceso a la información sobre el sistema para que puedan identificar a los responsables y descubrir qué salió mal. Armados con esta información, pueden demandar.
La propuesta todavía tiene que abrirse camino a través del proceso legislativo de la UE, que llevará al menos un par de años. Será enmendado por miembros del Parlamento Europeo y los gobiernos de la UE y probablemente enfrentará un intenso cabildeo por parte de las empresas tecnológicas, que reclamar que tales reglas podrían tener un efecto “escalofriante” en la innovación.
Tenga éxito o no, esta nueva legislación de la UE tendrá un efecto dominó en la forma en que se regula la IA en todo el mundo.
En explicit, el proyecto de ley podría tener un impacto adverso en el desarrollo de software program, cube Mathilde Adjutor, gerente de políticas europeas del grupo de cabildeo tecnológico CCIA, que representa a empresas como Google, Amazon y Uber.
Según las nuevas reglas, “los desarrolladores no solo corren el riesgo de ser responsables de los errores del software program, sino también del impacto potencial del software program en la salud psychological de los usuarios”, cube.
Imogen Parker, directora asociada de políticas en el Instituto Ada Lovelace, un instituto de investigación de IA, cube que el proyecto de ley alejará el poder de las empresas y lo devolverá a los consumidores, una corrección que considera particularmente importante dado el potencial discriminatorio de la IA. Y el proyecto de ley garantizará que cuando un sistema de IA trigger daño, haya una forma común de buscar una compensación en toda la UE, cube Thomas Boué, jefe de política europea del foyer tecnológico BSA, cuyos miembros incluyen a Microsoft e IBM.
Sin embargo, algunas organizaciones y activistas de los derechos de los consumidores dicen que las propuestas no van lo suficientemente lejos y pondrán el listón demasiado alto para los consumidores que quieran presentar reclamaciones.