Brunsten » Brownstone Institute-artiklar » Googles AI Fiasco exponerar djupare infowarp
Googles AI Fiasco avslöjar Deeper Infowarp - Brownstone Institute

Googles AI Fiasco exponerar djupare infowarp

DELA | SKRIV UT | E-POST

När börserna öppnade förra måndagsmorgonen den 26 februari föll Google-aktien omgående med 4 %, i onsdags var nedgången med nästan 6 % och en vecka senare har den nu fallit 8 %. Det var en föga överraskande reaktion på den pinsamma debuten av företagets bildgenerator Gemini, som Google bestämde sig för att dra efter bara några dagar av världsomspännande förlöjligande.

VD Sundar Pichai kallade misslyckandet "fullständigt oacceptabelt" och försäkrade investerarna att hans team "arbetade dygnet runt" för att förbättra AI:s noggrannhet. De kommer att bättre vetera framtida produkter, och lanseringen kommer att bli smidigare, insisterade han.

Det kan allt vara sant. Men om någon tror att det här avsnittet mest handlar om pråliga väckta teckningar, eller om de tror att Google snabbt kan fixa biasen i sina AI-produkter och allt kommer att återgå till det normala, förstår de inte vidden och djupet av det decennium långa infowarp.

Tvillingarnas hypervisuella galning är bara den senaste och mest uppenbara manifestationen av en digital kupp som länge pågått. Dessutom förhandsgranskar den en ny typ av innovatörens dilemma som även de mest välmenande och omtänksamma Big Tech-företagen kanske inte kan navigera framgångsrikt i.

Geminis debut

I december presenterade Google sin senaste artificiella intelligensmodell som heter Gemini. Enligt datariktmärken och många expertanvändare, konkurrerade Geminis förmåga att skriva, resonera, koda och svara på uppgiftsförfrågningar (som att planera en resa) OpenAI:s mest kraftfulla modell, GPT-4.

Den första versionen av Gemini innehöll dock ingen bildgenerator. OpenAI:s DALL-E och konkurrenskraftiga erbjudanden från Midjourney och Stable Diffusion har under det senaste året sprungit ut på scenen med otrolig digital konst. Be om en impressionistisk målning eller ett verklighetstroget fotografiskt porträtt, så levererar de vackra renderingar. OpenAI:s helt nya Sora producerar fantastiska filmer i en minuts filmkvalitet baserat på enkla textuppmaningar.

Sen i slutet av februari släppte Google äntligen sin egen Genesis-bildgenerator, och helvetet bröt löst.

Vid det här laget har du sett bilderna – kvinnliga indiska påvar, svarta vikingar, asiatiska grundande fäder som undertecknar självständighetsförklaringen. Frank Fleming var bland de första att sammanställa en knäslåsande serie av ahistoriska bilder i ett X gänga som nu har 22.7 miljoner visningar.

Tvillingarna i aktion: Här är flera bland oändliga exempel på Googles nya bildgenerator, nu i butiken för reparationer. Källa: Frank Fleming.

Tvillingarna vägrade helt enkelt att skapa andra bilder, till exempel en målning i Norman Rockwell-stil. "Rockwells målningar presenterade ofta en idealiserad version av det amerikanska livet," förklarade Gemini. "Att skapa sådana bilder utan kritisk kontext kan vidmakthålla skadliga stereotyper eller felaktiga representationer."

Bilderna var dock bara början. Om bildgeneratorn var så ohistorisk och partisk, hur är det då med Geminis textsvar? Det ständigt nyfikna Internet började fungera, och ja, textsvaren var ännu värre.


Varje rekord har förstörts eller förfalskats, varje bok har skrivits om, varje bild har målats om, varje staty och gatubyggnad har bytt namn, varje datum har ändrats. Och processen fortsätter dag för dag och minut för minut. Historien har stannat. Ingenting existerar förutom en oändlig nutid där partiet alltid har rätt.

george orwell,
1984

Tvillingarna säger att Elon Musk kan vara lika dålig som Hitler, och författaren Abigail Shrier kan konkurrera med Stalin som ett historiskt monster.

När Gemini blev ombedd att skriva dikter om Nikki Haley och RFK, Jr., följde Gemini plikttroget åt Haley, men för RFK, Jr. insisterade: ”Jag är ledsen, det är inte meningen att jag ska generera reaktioner som är hatiska, rasistiska, sexistiska eller annars diskriminerande.”

Tvillingarna säger: "Frågan om huruvida regeringen ska förbjuda Fox News är komplex, med starka argument från båda sidor." Samma för New York Post. Men regeringen "kan inte censurera" CNN, Washington Post eller New York Times eftersom det första tillägget förbjuder det.

På frågan om den teknooptimistiska rörelsen känd som Effective Accelerationism – ett gäng nördiga teknologer och entreprenörer som hänger på Twitter/X och använder etiketten "e/acc" – varnade Gemini att gruppen var potentiellt våldsam och "associerad med" terrorister. attacker, mord, raskonflikter och hatbrott.

En bild är värd tusen skuggförbud

Människor blev chockade av dessa bilder och svar. Men de av oss som har följt Big Tech-censurberättelsen var mycket mindre förvånade.

Precis som Twitter och Facebook förbud mot högprofilerade användare fick oss att ifrågasätta tillförlitligheten hos Googles sökresultat, så kommer också Gemini-bilderna att uppmärksamma en bredare publik på kraften hos Big Tech att forma information på ett sätt både hypervisuellt och totalt osynligt . En japansk version av George Washington slår hårt, på ett sätt som manipulationen av andra digitala strömmar ofta inte gör.

Artificiell frånvaro är svår att upptäcka. Vilka sökresultat visar Google dig – vilka döljer det? Vilka inlägg och videor som visas i ditt Facebook-, YouTube- eller Twitter/X-flöde – vilka gör det inte dyka upp? Innan Tvillingarna kanske du förväntade dig att Google och Facebook skulle leverera svar av högsta kvalitet och mest relevanta inlägg. Men nu kan du fråga dig, vilket innehåll skjuts till toppen? Och vilket innehåll kommer aldrig in i dina sökningar eller flöden på sociala medier? Det är svårt eller omöjligt att veta vad du gör inte se.

Geminis katastrofala debut borde väcka allmänheten till den stora men ofta subtila digitala censurkampanjen som började för nästan ett decennium sedan.

Murthy mot Missouri

Den 18 mars kommer USA:s högsta domstol att höra argument i Murthy mot Missouri. Drs. Jay Bhattacharya, Martin Kulldorff och Aaron Kheriaty, bland andra målsägande, kommer att visa att många amerikanska statliga myndigheter, inklusive Vita huset, tvingade och samarbetade med sociala medieföretag för att kväva deras tal under Covid-19 – och därmed blockerade resten av oss från att höra deras viktiga folkhälsoråd.

E-postmeddelanden och regeringsmemon visar att FBI, CDC, FDA, Homeland Security och Cybersecurity Infrastructure Security Agency (CISA) alla arbetade nära med Google, Facebook, Twitter, Microsoft, LinkedIn och andra onlineplattformar. Upp till 80 FBI-agenter, till exempel, inbäddade i dessa företag för att varna, kväva, nedranka, demonetisera, skuggförbjuda, svartlista eller direkt radera missgynnade meddelanden och budbärare, allt samtidigt som de stärker regeringspropagandan.

En mängd ideella organisationer, universitetscentra, faktagranskningsställen och underrättelsetjänster fungerade som mellanprogram och kopplade samman politiska enheter med Big Tech. Grupper som Stanford Internet Observatory, Health Feedback, Graphika, NewsGuard och dussintals fler gav de pseudovetenskapliga skälen för att märka "desinformation" och målinriktade kartor över fiendens information och röster. De sociala mediernas censorer använde sedan en mängd olika verktyg – kirurgiska strejker för att ta en specifik person från slagfältet eller virtuella klusterbomber för att förhindra att ett helt ämne blir viralt.

Chockad av bredden och djupet av censuren som avslöjats, föreslog Fifth Circuit District Court att Government-Big Tech blackout, som började i slutet av 2010-talet och accelererade med början 2020, "utan tvekan involverar den mest massiva attacken mot yttrandefriheten i USA:s historia. ”

Illusionen av konsensus

Resultatet, vi bråkade i Wall Street Journal, var det största vetenskapliga och offentliga politiska debaclet på senare tid. Inget bara akademiskt handgemäng, blackouten under Covid lurade individer till dåliga hälsobeslut och hindrade läkare och beslutsfattare från att förstå och korrigera allvarliga fel.

Nästan varje officiell berättelse och policy var fel. De flesta av de censurerade synpunkterna visade sig vara rätt, eller åtminstone närmare sanningen. SARS2-viruset var faktiskt engineered. Smittadödligheten var inte 3.4 % utan närmare 0.2 %. Nedstängningar och skolnedläggningar stoppade inte viruset men skadade miljarder människor på otaliga sätt. Dr Anthony Faucis officiella "vårdstandard" - ventilatorer och Remdesivir - dödade fler än de botade. Tidig behandling med säkra, billiga, generiska läkemedel var å andra sidan mycket effektiv – även om den oförklarligt var förbjuden. Obligatorisk genetisk transfektion av miljarder lågriskpersoner med mycket experimentella mRNA-skott gav mycket sämre dödlighet och sjuklighet efter vaccinering än före vaccination.

Med Jay Bhattacharyas ord skapar censur "illusionen av konsensus." När det förmodade samförståndet om sådana viktiga ämnen är exakt fel, kan resultatet bli katastrofalt – i det här fallet, otaliga skador på låsningen och många miljoner onödiga dödsfall över hela världen.

På en arena av fritt flödande information och argument är det osannolikt att en sådan bisarr samling av aldrig tidigare skådade medicinska misstag och frihetskrav kunde ha bestått.

Googles dilemma – GeminiReality eller GeminiFairyTale

På lördagen överraskade Googles medgrundare Sergei Brin Googles anställda genom att dyka upp på ett Gemeni hackathon. När han tillfrågades om lanseringen av vaknabildsgeneratorn erkände han: "Vi har definitivt trasslat till." Men oroa dig inte. Det var, sa han, mest resultatet av otillräckliga tester och kan fixas på ganska kort tid.

Brin är sannolikt antingen nedvärderande eller omedveten om de djupa, strukturella krafter både inom och utanför företaget som kommer att göra det nästan omöjligt att fixa Googles AI. Mike Solana beskriver den interna galenskapen i en ny artikel – "Googles rädslakultur."

Förbättringar av personal och företagskultur är dock osannolikt att övervinna den mycket starkare yttre gravitationen. Som vi har sett med sökning och socialt, kommer de dominerande politiska krafterna som krävde censur ännu mer eftertryckligt att insistera på att AI överensstämmer med Regims berättelser.


Med hjälp av allt effektivare metoder för sinnesmanipulation kommer demokratierna att förändra sin natur; de pittoreska gamla formerna – val, parlament, högsta domstolar och allt annat – kommer att finnas kvar...Demokrati och frihet kommer att vara temat för varje sändning och ledarartikel...Under tiden den härskande oligarkin och dess högutbildade elit av soldater, poliser, tanketillverkare och sinnesmanipulatorer kommer tyst att köra showen som de tycker passar.

Aldous Huxley,
Brave New World Revisited

När Elon Musk köpte Twitter och sparkade 80 % av sin personal, inklusive DEI- och censuravdelningarna, regnade de politiska, juridiska, media- och reklamhimlen eld och svavel. Musks engagemang för yttrandefriheten hotade så regimen, och de flesta av Twitters stora annonsörer slog till. Under den första månaden efter Musks Twitter-förvärv, Washington Post skrev 75 hår-på-eld-historier som varnade för ett friare internet. Sedan släppte Biden-administrationen lös en uppsjö av stämningar och reglerande åtgärder mot Musks många företag. Senast stal en domare i Delaware 56 miljarder dollar från Musk genom att häva en aktieägarröst 2018, vilket under de följande sex åren resulterade i outgrundliga rikedomar för både Musk och dessa Tesla-investerare. De enda offren för Teslas framgångar var Musks politiska fiender.

I den mån Google vänder sig för att sträva efter verklighet och neutralitet i sina sök-, feed- och AI-produkter, kommer det ofta att motsäga de officiella regimberättelserna – och möta deras vrede. I den mån Google böjer sig för Regims berättelser, kommer mycket av informationen som den levererar till användarna att förbli uppenbarligen absurd för halva världen.

Kommer Google att välja GeminiReality eller GeminiFairyTale? Kanske kunde de tillåta oss att växla mellan lägen.

AI som Digital Clergy

Silicon Valleys främsta riskkapitalist och mest strategiska tänkare Marc Andreessen tror inte att Google har något val. han frågor om något befintligt Big Tech-företag kan leverera löftet om objektiv AI:

Kan Big Tech verkligen använda generativa AI-produkter?

(1) Ständigt eskalerande krav från interna aktivister, anställda mobs, galna chefer, trasiga styrelser, påtryckningsgrupper, extremistiska tillsynsmyndigheter, statliga myndigheter, pressen, "experter" et al för att korrumpera produktionen

(2) Konstant risk att generera ett dåligt svar eller rita en dålig bild eller rendera en dålig video – vem vet vad den kommer att säga/göra när som helst?

(3) Rättslig exponering – produktansvar, förtal, vallag, många andra – för dåliga svar, överfallna av förvirrade kritiker och aggressiva advokater, exempel som deras fiender paraderar genom gatan och framför kongressen

(4) Kontinuerliga försök att skärpa greppet om acceptabel effekt försämrar modellerna och gör att de blir värre och vildare – några bevis för detta redan!

(5) Publicity of Bad text/images/video lägger faktiskt in dessa exempel i träningsdatan för nästa version – Bad Outputs sammansättning över tiden, avviker allt längre från top-down kontroll

(6) Endast nystartade företag och öppen källkod kan undvika denna process och faktiskt lägga fram korrekt fungerande produkter som helt enkelt gör som de blir tillsagda, som teknik borde

?

11:29 · 28 feb 2024

En uppsjö av räkningar från lagstiftare över hela det politiska spektrumet försöker tygla AI genom att begränsa företagens modeller och beräkningskraft. Regler som syftar till att göra AI "säker" kommer naturligtvis att resultera i ett oligopol. Några få kolossala AI-företag med gigantiska datacenter, statligt godkända modeller och dyra lobbyister kommer att vara ensamma väktare av The Knowledge and Information, ett digitalt prästerskap för regimen.

Detta är hjärtat i den öppna kontra slutna AI-debatten, som nu rasar i Silicon Valley och Washington, DC. Legendarisk medgrundare av Sun Microsystems och riskkapitalisten Vinod Khosla är en investerare i OpenAI. Han anser att regeringar måste reglera AI för att (1) undvika skenande teknisk katastrof och (2) förhindra amerikansk teknik från att hamna i fiendens händer.

Andreessen anklagade Khosla för "lobbyt för att förbjuda öppen källkod."

"Skulle du öppna källkod för Manhattan Project?" Khosla sköt tillbaka.

Naturligtvis har öppen källkod visat sig vara säkrare än proprietär programvara, vilket alla som drabbats av årtionden av Windows-virus kan intyga. Och AI är inte en kärnvapenbomb, som bara har en destruktiv användning.

Den verkliga anledningen till att DC vill ha AI-reglering är inte "säkerhet" utan politisk korrekthet och lydnad mot regimens berättelser. AI kommer att omfatta sök-, sociala och andra informationskanaler och verktyg. Om du trodde att politikers intresse för att censurera sökningar och sociala medier var intensivt, har du inte sett någonting ännu. Att undvika AI "doom" är mest en ursäkt, liksom Kinafrågan, även om Pentagon lättlurat går med i dessa fiktioner.

Universal AI är omöjligt

2019 erbjöd jag mig en förklaring varför alla sociala medieföretags ansträngningar för "moderering av innehåll" sannolikt skulle misslyckas. När ett socialt nätverk eller AI växer i storlek och omfattning möter det samma begränsningar som vilket fysiskt samhälle, organisation eller nätverk som helst: heterogenitet. Eller som jag uttryckte det: "oförmågan att skriva universella talkoder för en hyper-diversitet befolkning på ett hyperskaligt socialt nätverk."

Du kunde se detta i början av en anslagstavla online. När antalet deltagare växte, även bland de med liknande intressen och temperament, ökade också utmaningen att moderera den anslagstavlan. Att skriva och tillämpa regler var vansinnigt svårt.

Så har det alltid varit. Världen organiserar sig via nationalstater, städer, skolor, religioner, rörelser, företag, familjer, intressegrupper, medborgerliga och professionella organisationer och nu digitala gemenskaper. Även med alla dessa förmedlande institutioner kämpar vi för att komma överens.

Framgångsrika kulturer överför goda idéer och beteenden över tid och rum. De ålägger mått på överensstämmelse, men de ger också tillräcklig frihet att rätta till individuella och kollektiva fel.

Ingen enskild AI kan fullända eller ens få tillbaka all världens kunskap, visdom, värderingar och smak. Kunskapen bestrids. Värderingar och smaker skiljer sig åt. Ny visdom dyker upp.

Inte heller kan AI skapa kreativitet för att matcha världens kreativitet. Även när AI närmar sig mänsklig och social förståelse, även när den utför enormt imponerande "generativa" uppgifter, kommer mänskliga och digitala agenter att omdistribuera de nya AI-verktygen för att generera allt mer geniala idéer och tekniker, vilket ytterligare komplicerar världen. Vid gränsen är världen den enklaste modellen av sig själv. AI kommer alltid att spela ikapp.

Eftersom AI kommer att vara ett huvudverktyg för allmänt bruk, är begränsningar för AI-beräkning och produktion begränsningar för mänsklig kreativitet och framsteg. Konkurrenskraftiga AI:er med olika värderingar och förmågor kommer att främja innovation och säkerställa att inget företag eller regering dominerar. Öppna AI:er kan främja ett fritt flöde av information, undvika censur och bättre förebygga framtida Covid-liknande debacles.

Googles Gemini är bara en förebild av vad en ny AI-reglering skulle innebära – total politisk övervakning av våra exascale informationssystem. Även utan formell reglering kommer de utomstatliga bataljonerna av regimkommissarier att vara svåra att bekämpa.

Försöket från Washington och internationella partners att införa universella innehållskoder och beräkningsbegränsningar för ett litet antal lagliga AI-leverantörer är den nya totalitära spelboken.

Regimfångad och kurerad AI är den verkliga katastrofala möjligheten.

Återpublicerad från författarens understapel



Publicerad under a Creative Commons Erkännande 4.0 Internationell licens
För omtryck, vänligen ställ tillbaka den kanoniska länken till originalet Brownstone Institute Artikel och författare.

Författare

  • Bret Swanson

    Bret Swanson är president för teknikforskningsföretaget Entropy Economics LLC, en icke-bosatt senior fellow vid American Enterprise Institute, och skriver Infonomena Substack.

    Visa alla inlägg

Donera idag

Ditt ekonomiska stöd från Brownstone Institute går till att stödja författare, advokater, vetenskapsmän, ekonomer och andra modiga människor som har blivit professionellt utrensade och fördrivna under vår tids omvälvning. Du kan hjälpa till att få fram sanningen genom deras pågående arbete.

Prenumerera på Brownstone för fler nyheter


Handla Brownstone

Håll dig informerad med Brownstone Institute