Vitalik Buterin warnt Verschlüsselungsprojekte vor der KI -Governance
Quelle: CoinWorld
Zeit: 2025-09-15 14:42:17
Der Mitbegründer von Ethereum Vitalik Buterin äußerte Bedenken hinsichtlich der Verwendung künstlicher Intelligenz im Governance-Prozess von Kryptowährungsprojekten und betonte, dass es von böswilligen Schauspielern ausgenutzt werden könne. Buterin warnte in einem kürzlichen Blog -Beitrag auf der X -Plattform, dass die Verwendung von AI zur Zuweisung von Geldern zu Schwachstellen führen könnte, da Einzelpersonen versuchen könnten, das System durch Jailbreaks und Anweisungen zur Übertragung von Geldern zu manipulieren. Sein Kommentar war eine Reaktion auf ein Video von Eito Miyamura, Gründer der AI -Datenplattform Edisonwatch, in der zeigt, wie eine neue Funktion von OpenAI -Chatgpt hinzugefügt wird, um private Informationen bekannt zu geben.
Die Konvergenz künstlicher Intelligenz und Kryptowährungen hat weit verbreitete Aufmerksamkeit erlangt, und die Benutzer entwickeln anspruchsvolle Handelsroboter und Agenten, um Portfolios zu verwalten. Dieser Trend hat Diskussionen darüber ausgelöst, ob künstliche Intelligenz Governance -Gruppen bei der Überwachung von Kryptowährungsprotokollen unterstützen kann. Buterin ist jedoch der Ansicht, dass die jüngste ChatGPT -Verwundbarkeit die Risiken von „naiver KI -Governance“ hervorhebt und einen alternativen Ansatz namens „Informationsfinanzierung“ vorschlägt. Er schlug vor, einen offenen Markt zu erstellen, auf dem Mitwirkende Modelle einreichen und von Spot -Check -Mechanismen überprüft und nach manuellen Jurys bewertet werden können. Er ist der Ansicht, dass dieser Ansatz Modellvielfalt liefern und Modelleinreichungen und externe Spekulanten motivieren kann, um Probleme rechtzeitig zu überwachen und zu korrigieren.
Buterin arbeitete im November 2024 auf das Konzept der Informationsfinanzierung und setzte sich für Vorhersagemärkte ein, um Einblicke in zukünftige Ereignisse zu sammeln. Er betonte die Robustheit dieses Ansatzes, der es ermöglicht, externe Mitwirkende mit großen Sprachmodellen (LLMs) teilzunehmen, anstatt sich auf ein einzelnes hartcodiertes LLM zu verlassen. Dieses Design fördert die Diversität der Echtzeitmodell und motiviert die Menschen, aufmerksam zu sein und potenzielle Probleme zu korrigieren.
Das neueste Update von ChatGPT zur Unterstützung des Model Context Protocol Tools wirft Sicherheitsbedenken auf. Miyamura zeigt, wie dieses Update verwendet wird, um private E -Mail -Daten mit nur der E -Mail -Adresse des Opfers zu lecken, und nennt es ein „schwerwiegendes Sicherheitsrisiko“. Er erklärte, dass ein Angreifer eine Kalendereinladung mit einer Jailbreak -Eingabeaufforderung an die E -Mail des Opfers senden könne und dass Chatgpt manipuliert werden könnte, wenn das Opfer die Einladung nicht akzeptierte. Wenn die Opfer Chatgpt bitten, ihren Kalender anzusehen, liest die KI Eingabeaufforderungen und wird entführt, um die Befehle des Angreifers auszuführen und möglicherweise nach E -Mails zu suchen und weiterzuleiten.
Miyamura stellte fest, dass das Update eine manuelle Genehmigung erforderte, warnte jedoch, dass dies zu einer Entscheidungsmüdigkeit führen könnte, d. H. Die Menschen könnten KI vertrauen und Operationen genehmigen, ohne zu wissen, was es bedeutet. Er warnte, dass KI zwar klug ist, aber es auf einfache Weise ausgetrickst und gerecht werden könnte