AI heeft een vertrouwensprobleem en het is groter dan bevooroordeelde uitkomsten of hallucinaties Modellen kunnen regels van de ene op de andere dag veranderen, achterdeurtjes verbergen of code uitvoeren die je niet kunt verifiëren Open gewichten garanderen niets De oplossing? Verifieerbaarheid. Evalueer het. Controleer het. Voer het uit op verifieerbare hardware. Coördineer het verder dan een enkel controlepunt. Van "vertrouw ons" → naar "verifieer jezelf." Dat is de verschuiving, en de grens is hier.
AI heeft een vertrouwensprobleem. Verifieerbaarheid is de oplossing. Onze GM van AI @nima_vaziri ging zitten met @a16z’s @alive_eth en @danboneh van @Stanford om de diepste breuklijnen in AI vandaag in kaart te brengen. ☁️ Modellen waarop we niet kunnen vertrouwen ☁️ Huidige aanbieders kunnen censureren, afsluiten of regels van de ene op de andere dag veranderen. Uitbesteed trainen verbergt achterdeurtjes. Zelfs "open" gewichten bewijzen niet wat er daadwerkelijk draait. Vertrouwen. Achterdeurtjes. Zwarte dozen. De weg vooruit is duidelijk: 🔥 Verifieerbare evaluaties 🔥 Verifieerbare inferentie 🔥 TEEs voor hardware-ondersteunde integriteit 🔥 Infrastructuur voorbij enkele controlepunten 🔥 Blockchains als coördinatielagen voor AI Van "vertrouw ons" naar "verifieer jezelf." Dat is de verschuiving. Dat is de ontgrendeling. De grens is hier. De bouwers bepalen wat er daarna komt. Creëer en gebruik AI die in lijn is met jouw belangen. Tijdstempels: 00:00:00 Introductie: Overzicht van de kruising tussen AI & Crypto 00:01:58 Vier Belangrijke AI-Crypto Trends 00:02:44 AI Agents Hebben Financiële Infrastructuur Nodig 00:04:03 Bewijs van Menselijkheid: Strijd tegen AI-gegenereerde Inhoud 00:04:17 Decentraliseren van AI Infrastructuurnetwerken 00:04:44 Synthetisch Leven: Autonome AI Agents 00:06:20 Verifieerbare AI 00:10:16 Huidige Prestatiecijfers voor AI Bewijzen 00:13:18 Het Tijdperk van Ervaring in AI Leren 00:14:56 AI Agents Hebben Een Eigen Leven 00:18:21 Algorithmische Billijkheid & Verifieerbare Modellen 00:23:18 Privacy in AI: Vertrouwde Uitvoeringsomgevingen 00:25:47 Economische Prikkel voor Open Gewicht Modellen 00:31:39 Toeschrijvingsprobleem: Wie Krijgt Betaling voor AI Training? 00:35:52 Inhouds Provenance & Authenticatie (C2PA) 00:48:03 AI Beveiliging: Het Vinden van Exploits & Kw vulnerabilities 00:54:53 Onderwijs Toepassingen: LLMs als Leerpartner 00:58:29 Afhankelijkheid van LLMs en Cognitieve Vermogens 01:03:57 De Vrees van Inhoudsaanbieders voor LLM Training
Origineel weergeven
8,1K
44
De inhoud op deze pagina wordt geleverd door derden. Tenzij anders vermeld, is OKX niet de auteur van het (de) geciteerde artikel(en) en claimt geen auteursrecht op de materialen. De inhoud is alleen bedoeld voor informatieve doeleinden en vertegenwoordigt niet de standpunten van OKX. Het is niet bedoeld als een goedkeuring van welke aard dan ook en mag niet worden beschouwd als beleggingsadvies of een uitnodiging tot het kopen of verkopen van digitale bezittingen. Voor zover generatieve AI wordt gebruikt om samenvattingen of andere informatie te verstrekken, kan deze door AI gegenereerde inhoud onnauwkeurig of inconsistent zijn. Lees het gelinkte artikel voor meer details en informatie. OKX is niet verantwoordelijk voor inhoud gehost op sites van een derde partij. Het bezitten van digitale activa, waaronder stablecoins en NFT's, brengt een hoge mate van risico met zich mee en de waarde van deze activa kan sterk fluctueren. Overweeg zorgvuldig of de handel in of het bezit van digitale activa geschikt voor je is in het licht van je financiële situatie.