Vitalik Buterin advierte proyectos de cifrado contra la gobernanza de la IA
Fuente: CoinWorld
Hora: 2025-09-15 14:42:17
El cofundador de Ethereum, Vitalik Buterin, expresó su preocupación por el uso de la inteligencia artificial en el proceso de gobernanza de los proyectos de criptomonedas y enfatizó que podría ser explotado por actores maliciosos. Buterin advirtió en una publicación de blog reciente en la plataforma X que usar IA para asignar fondos podría conducir a vulnerabilidades, ya que las personas pueden intentar manipular el sistema a través de jailbreaks e instrucciones para transferir fondos. Su comentario fue en respuesta a un video de Eito Miyamura, fundador de la plataforma de datos de IA EdisonWatch, que demuestra cómo una nueva característica agregada por OpenAI CHATGPT se explota para revelar información privada.
La convergencia de la inteligencia artificial y las criptomonedas ha ganado una atención generalizada, y los usuarios están desarrollando robots y agentes comerciales sofisticados para administrar las carteras. Esta tendencia ha provocado discusiones sobre si la inteligencia artificial puede ayudar a los grupos de gobernanza a supervisar los protocolos de criptomonedas. Sin embargo, Buterin cree que la reciente vulnerabilidad de ChatGPT destaca los riesgos de "gobernanza ingenua de IA" y propone un enfoque alternativo llamado "financiación de la información". Sugirió crear un mercado abierto donde los contribuyentes puedan enviar modelos y ser revisados por mecanismos de verificación spot y evaluados por jurados manuales. Él cree que este enfoque puede proporcionar diversidad de modelos y motivar los envíos de modelos y los especuladores externos para monitorear y corregir problemas de manera oportuna.
Buterin elaboró el concepto de financiación de la información en noviembre de 2024, abogando por los mercados predictivos como un medio para reunir información sobre eventos futuros. Hizo hincapié en la robustez de este enfoque, que permite la participación de contribuyentes externos con modelos de idiomas grandes (LLM) en lugar de depender de un solo LLM codificado. Este diseño promueve la diversidad de modelos en tiempo real y motiva a las personas a estar alertas y corregir problemas potenciales.
La última actualización de ChatGPT para admitir la herramienta de protocolo de contexto modelo plantea preocupaciones de seguridad. Miyamura demuestra cómo usar esta actualización para filtrar los datos de correo electrónico privados utilizando solo la dirección de correo electrónico de la víctima, llamándola un "riesgo de seguridad grave". Explicó que un atacante podría enviar una invitación al calendario con un aviso de jailbreak al correo electrónico de la víctima, y que ChatGPT podría ser manipulado si la víctima no aceptó la invitación. Cuando las víctimas le piden a ChatGPT que vea su calendario, la IA lee las indicaciones y se secuestra para ejecutar los comandos del atacante, posiblemente buscando y reenviando correos electrónicos.
Miyamura señaló que la actualización requería la aprobación manual, pero advirtió que esto podría conducir a la fatiga de la decisión, es decir, las personas podrían confiar en la IA y aprobar las operaciones sin saber qué significa. Advirtió que si bien la IA es inteligente, podría ser engañado y phished de una manera fácil.