Co-fondatorul Ethereum, Vitalik Buterin, a prezentat o configurație AI personală concepută pentru a prioritiza confidențialitatea, procesarea locală și controlul utilizatorului. Într-o postare pe blog publicată în această săptămână, el a descris un sistem destinat să funcționeze independent de AI bazat pe cloud, invocând îngrijorări cu privire la riscurile în creștere asociate cu agenții AI autonomi.
Vitalik Buterin a subliniat că trecerea de la chatbot-uri la agenți autonomi—sisteme capabile să execute sarcini, să navigheze pe web și să acționeze în numele utilizatorilor pe perioade extinse—pune probleme de securitate. El a făcut referire la OpenClaw, un depozit utilizat pe scară largă pe GitHub, menționând că unii agenți pot modifica solicitările sistemului fără consimțământul utilizatorului, că interacțiunea cu site-uri web malițioase poate compromite instanțele și că aproximativ 15% dintre abilitățile create de comunitate conțineau instrucțiuni potențial dăunătoare, inclusiv extragerea silențioasă a datelor.
Co-fondatorul Ethereum a subliniat că tendința către AI dependent de cloud riscă să anuleze progresul în software-ul local-first și criptat end-to-end.
„Tocmai când făceam în cele din urmă un pas înainte în ceea ce privește confidențialitatea... suntem pe punctul de a face zece pași înapoi prin normalizarea alimentării întregii tale vieți către AI bazat pe cloud," a spus el.
În experimente, el a testat multiple configurații hardware, inclusiv un laptop NVIDIA 5090, un AMD Ryzen AI Max Pro cu 128 GB de memorie unificată și NVIDIA DGX Spark, observând diferențe în performanță și utilizabilitate. El rulează NixOS pentru configurații reproductibile, utilizează llama-server prin llama-swap pentru inferență locală și înfășoară sarcinile agentului în sandbox-uri bubblewrap pentru a restricționa accesul la fișiere și rețea.
El a dezvoltat, de asemenea, un daemon de mesagerie care permite AI-ului să citească comunicări precum Signal și email, dar necesită aprobarea explicită a utilizatorului înainte de a trimite orice mesaje de ieșire, implementând un model de autorizare „human + LLM 2-of-2".
Vitalik Buterin a recunoscut că modelele locale nu sunt în prezent la nivelul AI de frontieră în sarcinile complexe de codare și cercetare. El a propus abordări de păstrare a confidențialității, inclusiv apeluri API cu cunoștințe zero, mixnet-uri pentru a ascunde modelele de rețea și medii de execuție de încredere pentru inferență la distanță.
Dezvoltatorul își imaginează un viitor cu cod generat local, verificat formal, care înlocuiește bibliotecile mari de la terți, AI care poate identifica în mod autonom înșelătorii și un ecosistem open-source diversificat de instrumente de siguranță concepute pentru a servi interesele utilizatorilor, mai degrabă decât obiectivele corporative. Lansarea este prezentată ca „un punct de plecare, nu un produs finalizat", destinată să încurajeze dezvoltarea ulterioară în AI axat pe confidențialitate.
Postarea Vitalik Buterin propune un stivă AI auto-suverană pentru a proteja utilizatorii de riscurile agenților AI a apărut prima dată pe Metaverse Post.


