Gobiernos intentan establecer regulaciones para la inteligencia artificial

0
423

La Comisión Europea considera que cada uno de los software que sean lanzados al mercado pasen por una evaluación previa para minimizar sus posibles riesgos

Por Renato Silva – Infobae

Con el uso generalizado de las inteligencias artificiales para crear texto, imágenes, video, audio e incluso música, una de las necesidades que deben considerarse en el futuro inmediato son las iniciativas de regulación.

Hasta el momento, solo las compañías que han desarrollado estos programas se han encargado de limitar el tipo de uso que se le puede dar a sus productos.

Prohibir que los usuarios accedan a información potencialmente dañina sobre fabricación de armas, generación de imágenes pornográficas con inteligencia artificial, falsificación de videos con tecnología de deepfake, entre otros usos, han sido prohibidos por las plataformas. Sin embargo, hace falta que organizaciones gubernamentales especifiquen cómo se deben utilizar con responsabilidad estos recursos, muchos de ellos con acceso gratuito.

Según Sam Altman, CEO de la compañía OpenAI, que desarrolló los modelos generativos de ChatGPT, GPT-3 y GPT-4, es necesario este proceso para el desarrollo de las inteligencias artificiales.

“Necesitamos tiempo suficiente para que nuestras instituciones decidan qué hacer. la regulación será crítica y llevará tiempo resolverla”, publicó en su cuenta oficial de Twitter.

Algunos primeros pasos en esta dirección están siendo definidos esde el año 2021, cuando la Unión Europea, por medio de su Comisión (encargada de emitir leyes que rigen en los territorios miembros), elaboró una propuesta regulatoria para este tipo de softwares.

Según la Comisión Europea, la regulación de esta tecnología es necesaria para “evitar resultados no deseados” pese a que también se reconoce que la mayoría de estos sistemas no presentan demasiados riesgos. Todo esto con la intención de mejorar la calidad de los servicios y evitar que se perjudique a la sociedad de alguna forma.

La propuesta de la Comisión señala que es necesario establecer una “pirámide de riesgos” que ubica los más pequeños en la base y aquellos que son inaceptables en la parte superior. Estos son: Riesgo mínimo (o nulo), riesgo limitado, alto riesgo y riesgo inaceptable.

Cada tipo de inteligencia artificial que sea catalogada en alguna de estas secciones de la pirámide tendrán que cumplir requisitos previos antes de ser comercializada o de libre acceso en los países miembros de la Unión Europea para garantizar que son de uso seguro y que no perjudicarán a las personas que accedan a ellas.

Entre las obligaciones que las inteligencias artificiales calificadas con la categoría “Alto Riesgo”, se encuentran el establecimiento de altos niveles de seguridad para los usuarios, supervisión humana para evitar riesgos, ofrecer información clara y adecuada, además de alimentar la base de datos de los sistemas con recursos de alta calidad para evitar casos de discriminación. También se solicitará que se registre la actividad de los usuarios para rastrearlos en caso de que sea necesario.

En el caso de Estados Unidos, organizaciones como Data & Society indicaron por medio de su directora ejecutiva, Janet Haven, que “necesitamos regular esto, necesitamos leyes (…)”. Según la vocera de la institución de investigación norteamericana, no es algo bueno que las compañías generen este tipo de sistemas de forma tan libre.

Para Haven, “la idea de que las compañías de tecnología puedan construir lo que quieran y liberarlo al mercado mientras que la sociedad lucha para acostumbrarse y utilizarla es hacer las cosas al revés”.

Sin embargo, Sam Altman, quien está a favor de la regulación de este tipo de software, no coincide en la afirmación realizada por Haven. Según él, la mejor decisión es crear nuevos sistemas de inteligencia artificial y lanzarlos al mercado para que pueda aprender y se corrijan los errores que se puedan cometer mientras son más pequeños y no hacen daño a las personas.

“Debemos tener cuidado y al mismo tiempo entender que no sirve tenerlo todo en un laboratorio. Es un producto que debemos difundir y que haga contacto con la realidad y tener errores mientras los riesgos son bajos. Habiendo dicho eso, creo que la gente debería estar feliz de que estemos algo asustados de esto. Si pudiera decir que no me asusta, no deberías confiar en mi (…)”, afirmó Altman en una entrevista con el medio estadounidense ABC News.