Home
Dettagli Notizia

Vitalik Buterin avverte progetti di crittografia contro la governance dell'IA

Fonte: CoinWorld
Il co-fondatore di Ethereum Vitalik Buterin ha espresso preoccupazione per l'uso dell'intelligenza artificiale nel processo di governance dei progetti di criptovaluta e ha sottolineato che potrebbe essere sfruttato da attori dannosi. Buterin ha avvertito in un recente post sul blog sulla piattaforma X che l'uso di AI per allocare fondi potrebbe portare a vulnerabilità poiché gli individui potrebbero tentare di manipolare il sistema attraverso jailbreak e istruzioni per trasferire fondi. Il suo commento è stato in risposta a un video di Eito Miyamura, fondatore della piattaforma dati AI Edisonwatch, che dimostra come una nuova funzionalità aggiunta da Openai Chatgpt sia sfruttata per rivelare informazioni private. La convergenza dell'intelligenza artificiale e delle criptovalute ha attirato un'attenzione diffusa e gli utenti stanno sviluppando sofisticati robot e agenti commerciali per gestire i portafogli. Questa tendenza ha suscitato discussioni sul fatto che l'intelligenza artificiale possa aiutare i gruppi di governance a supervisionare i protocolli di criptovaluta. Tuttavia, Buterin ritiene che la recente vulnerabilità di CHATGPT evidenzi i rischi di "ingenua governance di intelligenza artificiale" e propone un approccio alternativo chiamato "Finanza delle informazioni". Ha suggerito di creare un mercato aperto in cui i collaboratori possono presentare modelli ed essere rivisti tramite meccanismi di controllo spot e valutato dalle giurie manuali. Crede che questo approccio possa fornire la diversità dei modelli e motivare gli invii dei modelli e gli speculatori esterni a monitorare e correggere tempestivamente i problemi in modo tempestivo. Buterin ha elaborato il concetto di finanziamento delle informazioni nel novembre 2024, sostenendo i mercati predittivi come mezzo per raccogliere approfondimenti su eventi futuri. Ha sottolineato la robustezza di questo approccio, che consente la partecipazione di collaboratori esterni con modelli linguistici di grandi dimensioni (LLM) piuttosto che fare affidamento su un singolo LLM con codice duro. Questo design promuove la diversità dei modelli in tempo reale e motiva le persone ad essere vigili e correggere potenziali problemi. L'ultimo aggiornamento di CHATGPT a supporto dello strumento del protocollo di contesto del modello solleva problemi di sicurezza. Miyamura dimostra come utilizzare questo aggiornamento per perdere dati e -mail privati ​​utilizzando solo l'indirizzo e -mail della vittima, definendolo un "grave rischio per la sicurezza". Ha spiegato che un aggressore potrebbe inviare un invito di calendario con un prompt di jailbreak all'e -mail della vittima e che il chatgpt potrebbe essere manipolato se la vittima non accettasse l'invito. Quando le vittime chiedono a Chatgpt di visualizzare il loro calendario, l'IA legge i suggerimenti e viene dirottata per eseguire i comandi dell'attaccante, possibilmente alla ricerca e inoltrando le e -mail. Miyamura ha osservato che l'aggiornamento ha richiesto l'approvazione manuale, ma ha avvertito che ciò potrebbe portare alla fatica decisionale, vale a dire che le persone potrebbero fidarsi dell'IA e approvare le operazioni senza sapere cosa significhi. Ha avvertito che mentre l'IA è intelligente, potrebbe essere ingannato e phishing in modo semplice
Link copiato negli appunti