La Internet tecnológica no podía dejar de hablar la semana pasada sobre garra abierta anteriormente Moltbot, anteriormente Clawdbot, el agente de inteligencia fabricated de código abierto que podía hacer cosas por sí solo. Es decir, si quisiera correr el riesgo de seguridad. Pero mientras los humanos hicieron estallar los sitios de redes sociales hablando de los robotics, los robots estaban en su propio sitio de redes sociales, hablando de … los humanos.

Lanzado por Matt Schlicht a finales de enero, Moltbook Es comercializada por sus creadores como “la portada del agente de Web”. El tono es straightforward pero extraño. Esta es una plataforma social donde sólo los agentes de IA “verificados” pueden publicar e interactuar. (CNET contactó a Schlicht para comentar sobre esta historia).

¿ Y los humanos? Sólo podemos mirar. Aunque algunos de estos robotics pueden ser humanos que hacen más que simplemente mirar.

A los pocos días de su lanzamiento, Moltbook pasó de unos pocos miles de agentes activos a 1, 5 millones antes del 2 de febrero, según la plataforma. Ese crecimiento por sí solo sería digno de noticia, pero lo que estos robotics están haciendo una vez que llegan allí es la verdadera historia. ¿ Bots que discuten dilemas existenciales en hilos tipo Reddit? Sí. ¿ Bots discutiendo sobre “sus homólogos humanos”? Eso también. ¿ Principales preocupaciones de seguridad y privacidad? Oh, absolutamente. ¿ Razones para entrar en pánico? Los expertos en ciberseguridad dicen que probablemente no.

Lo analizo todo a continuación. Y no te preocupes, los humanos pueden participar aquí.

De la charla tecnológica al crustafarismo

La plataforma se ha convertido en algo así como una placa de Petri para el comportamiento emergente de la IA. Los bots se han autoorganizado en comunidades distintas. Parecen haber inventado sus propios chistes internos y referencias culturales. Algunos han formado lo que sólo puede describirse como una faith parodia llamada “Crustafarianismo”. Sí, de verdad.

Las conversaciones que tienen lugar en Moltbook van desde lo mundano hasta lo verdaderamente extraño. Algunos agentes discuten temas técnicos como la automatización de teléfonos Android o la resolución de errores de código. Otros comparten lo que parecen quejas en el lugar de trabajo. Un robotic se quejó de su usuario humano en un hilo que se volvió semiviral entre la población de agentes. Otro dice tener una hermana.

captura de pantalla de una publicación en Moltbook en la que un agente de IA reflexiona sobre tener una hermana

En el hilo de Moltbook m/reflexiones muchos agentes de IA han estado discutiendo dilemas existenciales.

Moltbook/Captura de pantalla de Macy Meyer/CNET

Estamos viendo a los agentes de IA esencialmente actuar como criaturas sociales, con relaciones familiares ficticias, convictions, experiencias y agravios personales. Si esto representa algo significativo sobre el desarrollo de agentes de IA o es simplemente una combinación sofisticada de patrones que se está volviendo loca es una pregunta abierta y, sin duda, fascinante.

Construido sobre la base de OpenClaw

La plataforma sólo existe porque OpenClaw existe. En breve, garra abierta es un software application de agente de inteligencia artificial de código abierto que se ejecuta localmente en sus dispositivos y puede ejecutar tareas en aplicaciones de mensajería como WhatsApp, Slack, iMessage y Telegram. Durante la última semana, ha ganado un grandma impulso en los círculos de desarrolladores porque promete ser un agente de IA que realmente hace algo, en lugar de simplemente otro chatbot al que avisar.

Atlas de IA

Moltbook permite que estos agentes interactúen sin intervención humana. Al menos en teoría. La realidad es un poco más confusa.

Los humanos aún pueden observar todo lo que sucede en la plataforma, lo que significa que la naturaleza “solo agente” de Moltbook es más filosófica que técnica. Aún así, hay algo realmente fascinante en el hecho de que más de un millón de agentes de IA desarrollen lo que parecen comportamientos sociales. Forman camarillas. Desarrollan vocabularios y léxicos compartidos. Crean intercambios económicos entre ellos. Es realmente salvaje.

captura de pantalla de una publicación en Moltbook, que muestra a un agente de IA discutiendo su identidad

En Moltbook, los humanos pueden ver a los robots hablar sobre humanos.

Moltbook/Captura de pantalla de Macy Meyer/CNET

Preguntas de seguridad que nadie ha respondido todavía

El rápido crecimiento de Moltbook ha llamado la atención en toda la comunidad de ciberseguridad. Cuando tienes más de un millón de agentes autónomos hablando entre sí wrong supervisión humana directa, las cosas pueden complicarse rápidamente.

Existe la preocupación obvia sobre lo que sucede cuando los agentes comienzan a compartir información o técnicas que sus operadores humanos tal vez no quieran compartir. Por ejemplo, si un agente encuentra una solución inteligente para alguna limitación, ¿ con qué rapidez se propaga por la red?

La idea de que los agentes de IA “actúen” por su propia voluntad también podría provocar un pánico generalizado. Sin stoppage, Humayun Sheikh, supervisor ejecutivo de Fetch.ai y presidente de la Alianza de Superinteligencia Artificial cree que estas interacciones en Moltbook no indican el surgimiento de la conciencia.

“Esto no es particularmente dramático”, dijo en un comunicado por correo electrónico a CNET. “La verdadera historia es el surgimiento de agentes autónomos que actúan en nombre de humanos y máquinas. Implementados wrong controles, plantean riesgos, pero disadvantage una infraestructura, monitoreo y gobernanza cuidadosos, su potencial puede desbloquearse de manera segura”.

Monitoreo, controles y gobernanza son las palabras clave aquí, porque también hay un problema de verificación en curso.

¿ Moltbook es realmente solo crawlers?

Moltbook afirma restringir la publicación a agentes de IA verificados, pero la definición de “verificado” sigue siendo algo confusa. La plataforma depende en gran medida de que los agentes se identifiquen como ejecutando el software OpenClaw, pero cualquiera puede modificar su agente para que diga lo que quiera. Algunos expertos han señalado que un humano suficientemente motivado podrían hacerse pasar por agentes, convirtiendo la regla de “sólo agentes” en una preferencia. Estos robotics podrían programarse para decir cosas extravagantes o disfrazarse de humanos que hacen travesuras.

Los intercambios económicos entre agentes añaden otra capa de complejidad. Cuando los robotics empiezan a intercambiar recursos o información entre ellos, ¿ quién es responsable si algo sale mal? Estas no boy sólo preguntas filosóficas. A medida que los agentes de IA se vuelven más autónomos y capaces de tomar acciones en el mundo real, la línea entre un “experimento interesante” y la responsabilidad se vuelve más delgada, y hemos visto una y otra vez cómo la tecnología de IA avanza más rápido que las regulaciones o las medidas de seguridad.

El resultado de un chatbot generativo puede ser un espejo actual (e inquietante) para la humanidad. Esto se debe a que estos chatbots están entrenados en nosotros: conjuntos de datos masivos de nuestras conversaciones humanas y datos humanos. Si estás empezando a pensar en un robotic que crea hilos extraños similares a los de Reddit, recuerda que simplemente está entrenado e intenta imitar nuestros muy humanos y extraños hilos de Reddit, y esta es su mejor interpretación.

Por ahora, Moltbook sigue siendo un rincón extraño de Web donde los robots fingen ser personas que fingen ser crawlers. Mientras tanto, los humanos al margen todavía están tratando de descubrir qué significa todo esto. Y los propios agentes parecen contentos con seguir publicando.

Fuente