OpenAI, la empresa creadora de ChatGPT, planea dedicar el 20 % de sus recursos tecnológicos para establecer un grupo de trabajo, cuya función será buscar formas para garantizar que la inteligencia artificial (IA) funcione exclusivamente por el bien de la humanidad auto supervisando sus procesos.
"Necesitamos avances científicos y técnicos para dirigir y controlar sistemas de IA mucho más inteligentes que nosotros", según se lee en una publicación difundida este miércoles en el blog de la compañía.
Lo que se pretende es "resolver este problema" en un plazo de cuatro años. El nuevo grupo de trabajo estará dirigido por el cofundador de OpenAI, Ilya Sutskever, y Jan Leike, un alto ejecutivo de la empresa.
"El enorme poder de la superinteligencia también podría ser muy peligroso y conllevaría a la pérdida de poder de la humanidad o, incluso, a la extinción humana", reza el documento. "Actualmente, no tenemos una solución para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva rebelde", agrega.
Aunque esta nueva tecnología parece todavía muy lejana, podría materializarse durante esta década. Por esta razón, es necesario el desarrollo de técnicas más avanzadas para poder controlar a la IA superinteligente, señala la publicación. "Nuestro objetivo es desarrollar un investigador de alineamiento automatizada a nivel humano", agrega, aclarando que esta herramienta se centraría en garantizar que la IA siga siendo beneficiosa para las personas.
"No creo que sea un plan bueno o seguro"
Por su parte, el defensor de la seguridad de inteligencia artificial, Connor Leahy, considera que el plan de OpenAI puede fallar, debido a que una IA de nivel humano podría rebelarse y causar graves daños antes de que se consiga obligar a esa tecnología a resolver los problemas de seguridad de la IA. "Tienes que resolver el alineamiento antes de construir inteligencia a nivel humano, de lo contrario, por defecto, no la controlarás", dijo Leahy, citado por Reuters. "Personalmente, no creo que sea un plan especialmente bueno o seguro", concluyó.
Los peligros potenciales de la IA han estado en el punto de mira tanto de los investigadores de IA como del público en general. En mayo, una encuesta realizada por Reuters e Ipsos reveló que más de dos tercios de los estadounidenses están preocupados por los posibles efectos negativos de la IA, mientras que el 61 % cree que esta tecnología podría amenazar a la civilización.
(Con infomración de RT en Español)