Início
Detalhes da Notícia

Vitalik Buterin alerta projetos de criptografia contra a governança da IA

Fonte: CoinWorld
O co-fundador da Ethereum, Vitalik Buterin, expressou preocupações sobre o uso da inteligência artificial no processo de governança de projetos de criptomoeda e enfatizou que poderia ser explorado por atores maliciosos. Buterin alertou em uma postagem recente do blog na plataforma X que o uso da IA ​​para alocar fundos pode levar a vulnerabilidades, pois os indivíduos podem tentar manipular o sistema por meio de jailbreaks e instruções para transferir fundos. Seu comentário foi em resposta a um vídeo de Eito Miyamura, fundador da plataforma de dados da AI, EdisonWatch, que demonstra como um novo recurso adicionado pelo OpenAi ChatGPT é explorado para revelar informações privadas. A convergência de inteligência artificial e criptomoedas ganhou atenção generalizada, e os usuários estão desenvolvendo robôs e agentes sofisticados de negociação para gerenciar portfólios. Essa tendência provocou discussões sobre se a inteligência artificial pode ajudar os grupos de governança a supervisionar os protocolos de criptomoeda. No entanto, Buterin acredita que a recente vulnerabilidade do ChatGPT destaca os riscos de "governança ingênua de IA" e propõe uma abordagem alternativa chamada "financiamento da informação". Ele sugeriu criar um mercado aberto onde os colaboradores possam enviar modelos e ser revisados ​​por mecanismos de verificação à vista e avaliados por júris manuais. Ele acredita que essa abordagem pode fornecer diversidade de modelos e motivar envios de modelos e especuladores externos a monitorar e corrigir problemas em tempo hábil. Buterin elaborou o conceito de financiamento da informação em novembro de 2024, defendendo os mercados preditivos como um meio de reunir informações sobre eventos futuros. Ele enfatizou a robustez dessa abordagem, que permite a participação de colaboradores externos com grandes modelos de idiomas (LLMS), em vez de depender de um único LLM codificado. Esse design promove a diversidade de modelos em tempo real e motiva as pessoas a estarem alertas e corrigirem problemas em potencial. A atualização mais recente do ChatGPT para oferecer suporte à ferramenta de protocolo de contexto de modelo gera preocupações de segurança. Miyamura demonstra como usar esta atualização para vazar dados de e -mail privados usando apenas o endereço de e -mail da vítima, chamando -o de "risco sério de segurança". Ele explicou que um atacante poderia enviar um convite de calendário com um prompt de jailbreak para o e -mail da vítima e que o chatgpt poderia ser manipulado se a vítima não aceitasse o convite. Quando as vítimas pedem ao Chatgpt para ver seu calendário, a IA lê avisos e é seqüestrada para executar os comandos do atacante, possivelmente procurando e encaminhando e -mails. Miyamura observou que a atualização exigia a aprovação manual, mas alertou que isso poderia levar à fadiga da decisão, ou seja, as pessoas podem confiar na IA e aprovar operações sem saber o que isso significa. Ele alertou que, embora a IA seja inteligente, poderia ser enganada e phishd de uma maneira fácil
Link copiado para a área de transferência