domingo 25 de febrero de 2024
Cielo claro 27ºc | Posadas

Informática

Tecnológicas no se ponen de acuerdo sobre futuro de la IA

miércoles 06 de diciembre de 2023 | 6:02hs.
Tecnológicas no se ponen de acuerdo sobre futuro de la IA
La creadora de ChatGPT también quería un smartphone este año. Foto: AP
La creadora de ChatGPT también quería un smartphone este año. Foto: AP

Los líderes de la industria tecnológica han manifestado su apoyo a la necesidad de regular la inteligencia artificial, pero también están ejerciendo una fuerte presión para garantizar que las nuevas normas les favorezcan. Eso no significa que todos quieran lo mismo.

Meta, matriz de Facebook, e IBM lanzaron ayer un nuevo grupo llamado AI Alliance, que defiende una postura de “ciencia abierta” para el desarrollo de la IA, lo que las pone en conflicto con las rivales Google, Microsoft y OpenAI, creadora de ChatGPT.

Estos dos bandos opuestos (el cerrado y el abierto) están en desacuerdo sobre si se debe construir la IA de forma que la tecnología subyacente sea ampliamente accesible. La seguridad está en el centro del debate, pero también quién puede sacar provecho de los avances de la IA.

Los defensores del código abierto están a favor de un enfoque que “no sea patentado y cerrado”, afirma Darío Gil, vicepresidente senior de IBM que dirige su departamento de investigación. “Para que no sea algo que está encerrado en un barril y nadie sabe lo que es”.

Qué es la IA de Código Abierto
El término “código abierto” deriva de una práctica de décadas de construcción de programas informáticos cuyo código es gratuito o ampliamente accesible para que cualquiera pueda examinarlo, modificarlo y desarrollarlo.

La IA de código abierto implica algo más que el código, y los informáticos discrepan sobre cómo definirla en función de qué componentes de la tecnología están a disposición del público y si existen restricciones que limiten su uso. Algunos utilizan el término “ciencia abierta” para describir una filosofía más amplia. La AI Alliance (liderada por IBM y Meta y en el que participan Dell, Sony, los fabricantes de chips AMD e Intel y varias universidades y startups de IA) “se está organizando para plantear, en pocas palabras, que el futuro de la IA se va a construir fundamentalmente sobre el intercambio científico abierto de ideas y sobre la innovación abierta, incluido el código abierto y las tecnologías abiertas”, dijo Gil en una entrevista con The Associated Press antes de su presentación.

Parte de la confusión que existe acerca de la IA de código abierto se debe a que, a pesar de su nombre, OpenAI (la empresa detrás de ChatGPT y de DALL-E, la herramienta para crear imágenes) construye sistemas de IA que son decididamente cerrados.

“Para decir lo obvio, hay incentivos comerciales y a corto plazo contra el código abierto”, dijo Ilya Sutskever, científico jefe y cofundador de OpenAI, en una videoentrevista organizada por la Universidad de Stanford en abril. Pero también hay una preocupación a más largo plazo: la posibilidad de un sistema de IA con capacidades “alucinantemente potentes” que sería demasiado peligroso hacer accesibles al público.

Para ilustrar los peligros del código abierto, Sutskever planteó el ejemplo hipotético de un sistema de IA que aprenda a poner en marcha su propio laboratorio biológico.

¿Es peligrosa?
De acuerdo con David Evan Harris, investigador de la Universidad de California en Berkeley, hasta los modelos actuales de IA plantean riesgos y podrían ser utilizados, por ejemplo, para intensificar campañas de desinformación destinadas a alterar elecciones democráticas.

“El código abierto es realmente una maravilla en muchas dimensiones de la tecnología”, pero la IA es distinta, afirmó Harris.

“Cualquiera que haya visto la película ‘Oppenheimer’ sabe esto, que cuando se están haciendo grandes descubrimientos científicos, hay muchas razones para pensárselo dos veces a la hora de compartir ampliamente los detalles de toda esa información de forma que pueda llegar a manos equivocadas”, dijo.

El Center for Humane Technology, un viejo crítico de las prácticas de Meta en las redes sociales, está entre los grupos que llaman la atención sobre los riesgos de los modelos de IA de código abierto o filtrados.

“Mientras no existan salvaguardas, es totalmente irresponsable poner estos modelos a disposición del público”, afirma Camille Carlton, del grupo.

¿Que opinión tenés sobre esta nota?


Me gusta 0%
No me gusta 0%
Me da tristeza 0%
Me da alegría 0%
Me da bronca 0%
Te puede interesar
Ultimas noticias