El ex director ejecutivo de Google, Eric Schmidt, habló en la Sifted Summit el miércoles 8 de octubre.

Bloomberg | Bloomberg | Imágenes falsas

GoogleEl ex director ejecutivo de Eric Schmidt ha emitido un duro recordatorio sobre los peligros de la IA y lo susceptible que es a ser pirateada.

Schmidt, quien fue director ejecutivo de Google de 2001 a 2011, advirtió sobre “las cosas malas que la IA puede hacer”, cuando se le preguntó si la IA es más destructiva que las armas nucleares durante una charla informal en la Cumbre Sifted.

“¿Existe la posibilidad de que haya un problema de proliferación en la IA? Absolutamente”, dijo Schmidt el miércoles. El riesgos de proliferación de la IA incluyen que la tecnología caiga en manos de malos actores y sea reutilizada y utilizada indebidamente.

“Existe evidencia de que puedes tomar modelos, cerrados o abiertos, y puedes piratearlos para quitarles las barandillas. Así que en el curso de su entrenamiento, aprenden muchas cosas. Un mal ejemplo sería aprender a matar a alguien”, dijo Schmidt.

“Todas las grandes empresas hacen imposible que esos modelos respondan esa pregunta. Buena decisión. Todo el mundo hace esto. Lo hacen bien y lo hacen por las razones correctas. Hay evidencia de que se les puede aplicar ingeniería inversa, y hay muchos otros ejemplos de esa naturaleza”.

Los sistemas de inteligencia artificial son vulnerables a los ataques y algunos métodos incluyen inyecciones rápidas y jailbreak. En un ataque de inyección rápida, los piratas informáticos ocultan instrucciones maliciosas en las entradas del usuario o en datos externos, como páginas web o documentos, para engañar a la IA para que haga cosas que no debe hacer, como compartir datos privados o ejecutar comandos dañinos.

El jailbreak, por otro lado, implica manipular las respuestas de la IA para que ignore sus reglas de seguridad y produzca contenido restringido o peligroso.

En 2023, unos meses después del lanzamiento de ChatGPT de OpenAI, los usuarios emplearon un truco de “jailbreak” para eludir las instrucciones de seguridad integradas en el chatbot.

Esto incluyó la creación de un alter ego de ChatGPT llamado DAN, un acrónimo de “Do Anything Now”, que implicaba amenazar de muerte al chatbot si no cumplía. El alter ego podría proporcionar respuestas sobre cómo cometer actividades ilegales o enumerar las cualidades positivas de Adolf Hitler.

Schmidt dijo que todavía no existe un buen “régimen de no proliferación” que ayude a frenar los peligros de la IA.

La IA está “poco valorada”

A pesar de la sombría advertencia, Schmidt se mostró optimista acerca de la IA en general y dijo que la tecnología no recibe la publicidad que merece.

“Escribí dos libros con Henry Kissinger sobre esto antes de morir, y llegamos a la conclusión de que la llegada de una inteligencia extraterrestre que no es exactamente nuestra y más o menos bajo nuestro control es un gran problema para la humanidad, porque los humanos están acostumbrados a estar en la cima de la cadena. Creo que hasta ahora, esa tesis está demostrando que el nivel de capacidad de estos sistemas excederá con creces lo que los humanos pueden hacer con el tiempo”, dijo Schmidt.

“Ahora, la serie GPT, que culminó en un momento ChatGPT para todos nosotros, donde tuvieron 100 millones de usuarios en dos meses, lo cual es extraordinario, da una idea del poder de esta tecnología. Así que creo que está subestimado, no sobrevalorado, y espero que se demuestre que es correcto en cinco o 10 años”, añadió.

Sus comentarios se producen en medio de crecientes conversaciones sobre una Burbuja de la IA, a medida que los inversores invierten dinero en empresas centradas en la IA y las valoraciones parecen exageradas, y se hacen comparaciones con el colapso de la burbuja de las puntocom de principios de la década de 2000.

Sin embargo, Schmidt dijo que no cree que la historia se repita.

“No creo que eso vaya a suceder aquí, pero no soy un inversor profesional”, dijo.

“Lo que sí sé es que las personas que invierten el dinero que tanto les costó ganar creen que el rendimiento económico durante un largo período de tiempo es enorme. ¿Por qué si no correrían el riesgo?”

Fuente