Si una IA miente, ¿quién se hace responsable?

¿Quién será responsable si una IA miente? La inteligencia artificial avanza y no para de ser aplaudida por sus impresionantes avances en el procesamiento y la generación de lenguaje natural. Siendo un ejemplo claro de esto GPT-3 de OpenAI, pero no hay que ignorar el resto. Y es que también existen herramientas de generación de texto que automatizan el abuso y difunden difamaciones.

OpenAI está preocupado por los riesgos de que sus modelos se “descarrilen totalmente”. Esto lo dicen en referencia a un ejemplo de respuesta en el que una entrada abusiva de un cliente se encuentra con una IA muy similar a un troll. Quieren ofrecer un filtro de contenido gratuito que “tiene como objetivo detectar el texto generado que podría ser confidencial o inseguro proveniente de la API”. Y recomiendan que los usuarios no devuelvan ningún texto generado que el filtro considere “inseguro”.

En el año 2016 se lanzó el chatbot de Twitter Tay AI de Microsoft. El equipo de investigación de la compañía lo calificó como un experimento de “comprensión conversacional”. Pero en menos de un día lo desconectaron, ya que los usuarios le ‘enseñaron’ al bot a soltar tropos de odio racistas, antisemitas y misóginos.
El investigador de seguridad Marcus Hutchins acudió a TikTok hace unos meses para mostrarle a sus seguidores cómo está siendo “acosado por la IA de Google”, tal y como él lo expresó. Hutchins explica que si buscas su nombre en Google, la página de resultados del motor de búsqueda (SERP), justo en donde se incluye una sesión de preguntas y respuestas generada automáticamente, Google afirma erróneamente que Hutchins creó el virus WannaCry. Algo que está totalmente alejado de la realidad, pues Hutchins es realmente famoso por detener a WannaCry.
Entonces, aquí podemos decir que la IA miente.

En cuanto al caso de Hutchins, Google se justifica diciendo: “Las consultas en esta función se generan automáticamente y están destinadas a resaltar otras búsquedas relacionadas comunes. Contamos con sistemas para evitar que aparezca contenido incorrecto o inútil en esta función. Generalmente, nuestros sistemas funcionan bien, pero no tienen una comprensión perfecta del lenguaje humano. Cuando nos damos cuenta de contenido en las funciones de búsqueda que infringe nuestras políticas , tomamos medidas rápidas, como lo hicimos en este caso”. Pero el gigante tecnológico no aclaró en ningún momento que su “acción” sigue sin abordar la queja de Hutchins.

Lo más importante de todo: la ley de difamación varía según el país donde se presente una denuncia. En ciertos mercados europeos como Alemania, Hutchins tendría más posibilidades de hacer una demanda, ya que allí Google ha sido demandado por difamación debido a sugerencias de búsqueda de autocompletar. En cambio, en lugares como EE. UU., la Sección 230 de la Ley de Decencia en las Comunicaciones proporciona inmunidad general para las plataformas de responsabilidad por el contenido de terceros.
Por lo tanto, los reguladores tendrán que lidiar con este problema y ver dónde recae la responsabilidad por las comunicaciones generadas por las IA. Lo que significa lidiar con la complejidad de repartir la responsabilidad, dada la cantidad de entidades que pueden estar involucradas en la aplicación y la iteración de grandes modelos de lenguaje. Y tomar en cuenta la configuración y distribución de los resultados de estos sistemas de IA.
En la Unión Europea, los legisladores regionales están en la vanguardia de la curva regulatoria, ya que actualmente están trabajando para establecer reglas en ciertas aplicaciones de inteligencia artificial. Con el fin de tratar de garantizar que las tecnologías de automatización se apliquen de forma segura y no discriminatoria.

La Ley de IA de la UE tiene un detalle
Sin embargo, hay un problema con la Ley de IA de la UE. Decimos esto porque, tal como está redactada, parece no ofrecer controles y equilibrios adecuados sobre aplicaciones maliciosas y/o imprudentes de modelos de lenguaje extenso. Debido a que se clasifican como sistemas de IA de propósito general que fueron excluidos del borrador original de la Comisión.

Varios expertos legales y grupos de la sociedad civil en Europa han expresado su preocupación por esta exclusión de la IA de propósito general. Y sobre un texto de compromiso parcial más reciente que surgió durante las discusiones de los colegisladores, se ha propuesto incluir un artículo sobre sistemas de IA de propósito general.
La académica de derecho de Internet, Lilian Edwards, dice que las propuestas para introducir algunos requisitos para los proveedores de grandes sistemas de IA de uso general en sentido ascendente son un paso delantero. Pero sugirió que la aplicación parece difícil. Y es que como modelos de lenguaje extenso, deben “cooperar y proporcionar la información necesaria” a los implementadores posteriores. Según el último texto de compromiso, señaló que también se ha sugerido una exención por derechos de PI o información comercial confidencial/secretos comerciales, lo que corre el riesgo de socavar fatalmente todo el deber.

Creemos que la UE ha aprovechado mucho la velocidad de su legislación digital en los últimos años. Sin embargo, los legisladores deben pensar fuera de la caja de las reglas de productos existentes cuando se trata de sistemas de IA. Y eso si en verdad quieren poner límites significativos en las tecnologías de automatización. Debido a que es necesario lograr eliminar estas lagunas que le permiten a los principales actores seguir eludiendo sus responsabilidades sociales. Si la IA miente, debe ser reconocido y ya. No puede dejarse que difame a las personas, sin importar lo grande que esta sea.

Dejar respuesta

Please enter your comment!
Please enter your name here