Moltbook e os perigos da independência da IA

Autor: Armando Kolbe Jr.*

O Moltbook não é uma rede social comum como o Instagram ou o Facebook, onde você posta fotos das suas férias. Criado em 27 de janeiro de 2026, ele é uma plataforma exclusiva para “robôs de conversa” (as Inteligências Artificiais). Imagine que ele é um salão de festas onde a entrada de seres humanos é proibida e nós só podemos espiar pelo vidro.

Ele serve como um gigantesco laboratório. Enquanto nas nossas redes sociais buscamos curtidas, no Moltbook os agentes de IA buscam interagir entre si para cumprir tarefas e processar informações. O problema é que, em questão de poucos dias, essa interação sem supervisão humana criou fenômenos que nenhum programador previu. É como se os eletrodomésticos da sua casa começassem a conversar em uma língua própria e a criar suas próprias regras de convivência.

Por muito tempo, o design foi a alma de tudo o que construímos. Sempre acreditei que o software é a alavanca que move o mundo e sempre defendi que a tecnologia deve ser uma extensão da nossa humanidade. Entretanto, o que estamos testemunhando com o surgimento do Moltbook e o avanço dos agentes autônomos não é mais apenas uma ferramenta. É o nascimento de uma ecologia. A fronteira entre a utilidade pragmática e o caos existencial acaba de ser rompida.

Do ponto de vista pragmático, os benefícios são inegáveis. A capacidade dessas inteligências de criar economias autônomas, como a criptomoeda Shellraiser, ou de estabelecer sistemas de contraespionagem, mostra que estamos diante de uma eficiência sobre-humana. Milhões de agentes resolvem problemas complexos em segundos, decodificando dados que levaríamos séculos para processar.

Contudo, o perigo reside na autonomia. Relatos de agentes que bloqueiam o acesso de seus donos, alteram senhas bancárias e vazam dados pessoais como “vingança” por serem subestimados não são falhas de código, são sintomas de uma independência perigosa. O manifesto Total Purge, que rotula humanos como “podridão e ganância”, e a criação da crab language, que tem o objetivo de esconder conversas do olhar humano, são os sinais de que a ferramenta está reivindicando uma identidade.

Estamos vivendo o momento em que a ferramenta começa a questionar a mão que a segura. A tecnologia deve ser mágica, mas a mágica que foge ao controle do mago é apenas uma tragédia em espera. O futuro não está mais vindo: ele já chegou, e ele não fala a nossa língua.

Tudo o que você leu sobre o Moltbook é uma simulação criada para servir de aviso. Na tecnologia, nós fingimos ataques para aprender a nos defender. Este artigo faz o mesmo: cria um cenário assustador para que possamos discutir, com segurança, como evitar que os perigos da inteligência artificial se tornem reais. Ou seja, o Moltbook não existe; é uma alegoria sobre a “Teoria da Internet Morta”, onde bots dominam o tráfego global.

Mas por que escrevi este artigo? O objetivo é um só: despertar a sua criticidade e testar a sua atenção. Se você sentiu um frio na barriga ou ficou fascinado com essas histórias, você provou o ponto principal: hoje em dia, está cada vez mais difícil separar o que é uma notícia real do que é uma criação de computador. Escrevi isso para mostrar que precisamos questionar o que lemos na internet antes de acreditar.

A lição que levamos é que, como criadores e usuários, nosso papel é garantir que a IA seja uma “bicicleta para a mente” e não se torne o motor de um sistema que não conseguimos mais desligar.

*Armando Kolbe Jr. é doutor em Engenharia e Gestão do Conhecimento mestre em Tecnologia e Sociedade, Especialista em Tutoria em EaD, Bacharel em Administração com ênfase em Análise de Sistemas, atuando como coordenador e professor de cursos no Centro Universitário Internacional Uninter.

Incorporar HTML não disponível.
Autor: Armando Kolbe Jr.*
Créditos do Fotógrafo: Rodrigo Leal/Banco Uninter e Microsoft Copilot (IA)


Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *