Vitalik Buterin alerta projetos de criptografia contra a governança da IA
Fonte: CoinWorld
Hora: 2025-09-15 14:42:17
O co-fundador da Ethereum, Vitalik Buterin, expressou preocupações sobre o uso da inteligência artificial no processo de governança de projetos de criptomoeda e enfatizou que poderia ser explorado por atores maliciosos. Buterin alertou em uma postagem recente do blog na plataforma X que o uso da IA para alocar fundos pode levar a vulnerabilidades, pois os indivíduos podem tentar manipular o sistema por meio de jailbreaks e instruções para transferir fundos. Seu comentário foi em resposta a um vídeo de Eito Miyamura, fundador da plataforma de dados da AI, EdisonWatch, que demonstra como um novo recurso adicionado pelo OpenAi ChatGPT é explorado para revelar informações privadas.
A convergência de inteligência artificial e criptomoedas ganhou atenção generalizada, e os usuários estão desenvolvendo robôs e agentes sofisticados de negociação para gerenciar portfólios. Essa tendência provocou discussões sobre se a inteligência artificial pode ajudar os grupos de governança a supervisionar os protocolos de criptomoeda. No entanto, Buterin acredita que a recente vulnerabilidade do ChatGPT destaca os riscos de "governança ingênua de IA" e propõe uma abordagem alternativa chamada "financiamento da informação". Ele sugeriu criar um mercado aberto onde os colaboradores possam enviar modelos e ser revisados por mecanismos de verificação à vista e avaliados por júris manuais. Ele acredita que essa abordagem pode fornecer diversidade de modelos e motivar envios de modelos e especuladores externos a monitorar e corrigir problemas em tempo hábil.
Buterin elaborou o conceito de financiamento da informação em novembro de 2024, defendendo os mercados preditivos como um meio de reunir informações sobre eventos futuros. Ele enfatizou a robustez dessa abordagem, que permite a participação de colaboradores externos com grandes modelos de idiomas (LLMS), em vez de depender de um único LLM codificado. Esse design promove a diversidade de modelos em tempo real e motiva as pessoas a estarem alertas e corrigirem problemas em potencial.
A atualização mais recente do ChatGPT para oferecer suporte à ferramenta de protocolo de contexto de modelo gera preocupações de segurança. Miyamura demonstra como usar esta atualização para vazar dados de e -mail privados usando apenas o endereço de e -mail da vítima, chamando -o de "risco sério de segurança". Ele explicou que um atacante poderia enviar um convite de calendário com um prompt de jailbreak para o e -mail da vítima e que o chatgpt poderia ser manipulado se a vítima não aceitasse o convite. Quando as vítimas pedem ao Chatgpt para ver seu calendário, a IA lê avisos e é seqüestrada para executar os comandos do atacante, possivelmente procurando e encaminhando e -mails.
Miyamura observou que a atualização exigia a aprovação manual, mas alertou que isso poderia levar à fadiga da decisão, ou seja, as pessoas podem confiar na IA e aprovar operações sem saber o que isso significa. Ele alertou que, embora a IA seja inteligente, poderia ser enganada e phishd de uma maneira fácil