Xlera8

Glöm AI-domen och hypen, låt oss göra datorer användbara

Systemtillvägagångssätt Fullständig avslöjande: Jag har en historia med AI, efter att ha flirtat med det på 1980-talet (minns du expertsystem?) och sedan säkert undvikit AI-vintern i slutet av 1980-talet genom att gå över till formell verifiering innan jag slutligen landade på nätverk som min specialitet inom 1988.

Och precis som min Systems Approach-kollega Larry Peterson har klassiker som Pascal-manualen i sin bokhylla, har jag fortfarande ett par AI-böcker från åttiotalet på min, särskilt PH Winstons Artificiell intelligens (1984). Att bläddra i den boken är ganska kul, i den meningen att mycket av den ser ut som om den kan ha skrivits igår. Till exempel börjar förordet så här:

Området artificiell intelligens har förändrats enormt sedan den första upplagan av denna bok publicerades. Ämnen inom artificiell intelligens är de rigueur för grundutbildningen i datavetenskap, och berättelser om artificiell intelligens visas regelbundet i de flesta av de välrenommerade nyhetstidningarna. En del av anledningen till förändringen är att solida resultat har ackumulerats.

Jag var också intresserad av att se några exempel från 1984 på "vad datorer kan göra." Ett exempel var att lösa allvarligt svåra kalkylproblem – anmärkningsvärt eftersom noggrann aritmetik tycks vara bortom kapaciteten hos dagens LLM-baserade system.

Om kalkyler redan var lösbara av datorer 1984, medan grundläggande aritmetik stör de system vi ser som dagens toppmoderna, kanske mängden framsteg inom AI under de senaste 40 åren inte är riktigt så stor som den först verkar. (Som sagt, det finns till och med bättre calculus-tackling system idag, de är helt enkelt inte baserade på LLMs, och det är oklart om någon hänvisar till dem som AI.)

En anledning till att jag tog upp min gamla kopia av Winston var för att se vad han hade att säga om definitionen av AI, eftersom det också är ett kontroversiellt ämne. Hans första syn på detta är inte särskilt uppmuntrande:

Artificiell intelligens är studiet av idéer som gör det möjligt för datorer att vara intelligenta.

Okej, det är ganska cirkulärt, eftersom du måste definiera intelligens på något sätt, som Winston medger. Men han fortsätter sedan med att ange två mål för AI:

  1. För att göra datorer mer användbara
  2. Att förstå principerna som gör intelligens möjlig.

Det är med andra ord svårt att definiera intelligens, men kanske kan studiet av AI hjälpa oss att få en bättre förståelse för vad det är. Jag skulle gå så långt som att säga att vi fortfarande har debatten om vad som är underrättelser 40 år senare. Det första målet verkar lovvärt men gäller helt klart mycket icke-AI-teknik.

Denna debatt om innebörden av "AI" fortsätter att hänga över branschen. Jag har stött på många gnäller om att vi inte skulle behöva termen artificiell allmän intelligens, alias AGI, om bara termen AI inte hade blivit så förorenad av människor som marknadsför statistiska modeller som AI. Jag köper inte riktigt det här. Så vitt jag kan säga har AI alltid täckt ett brett utbud av datortekniker, av vilka de flesta inte skulle lura någon att tro att datorn visade mänskliga intelligensnivåer.

När jag började engagera mig på nytt med AI-området för ungefär åtta år sedan, hade neurala nätverk – som några av mina kollegor använde 1988 innan de föll i onåd – gjort en häpnadsväckande comeback, till en punkt där bildigenkänning med djup neurala nätverk hade överträffade hastigheten och noggrannheten hos människor om än med vissa förbehåll. Denna ökning av AI ledde till en viss oro bland mina ingenjörskollegor på VMware, som kände att ett viktigt tekniskt skifte var på gång som (a) de flesta av oss inte förstod (b) vår arbetsgivare inte var positionerad att dra nytta av .

När jag kastade mig in i uppgiften att lära mig hur neurala nätverk fungerar (med en stor assist från Rodney Brooks) Jag insåg att språket vi använder för att prata om AI-system har en betydande inverkan på hur vi tänker om dem. Till exempel, 2017 hörde vi mycket om "djup inlärning" och "djupa neurala nätverk", och användningen av ordet "djup" har en intressant dubbel betydelse. Om jag säger att jag har "djupa tankar" kan du föreställa dig att jag tänker på meningen med livet eller något lika tungt, och "djup inlärning" verkar innebära något liknande.

Men i själva verket är "djupet" i "djupt lärande" en referens till djupet, mätt i antal lager, av det neurala nätverk som stöder inlärningen. Så det är inte "djupt" i betydelsen meningsfullt, utan bara djupt på samma sätt som en pool har en djup ände - den med mer vatten i. Denna dubbla betydelse bidrar till illusionen att neurala nätverk "tänker".

En liknande förvirring gäller för "lärande", vilket var där Brooks var så hjälpsam: ett djupt neuralt nätverk (DNN) blir bättre på en uppgift ju mer träningsdata det utsätts för, så i den meningen "lär sig" det av erfarenhet, men det sätt som den lär sig är ingenting som hur en människa lär sig saker.

Som ett exempel på hur DNN:er lär sig, överväg AlphaGo, spelsystemet som använde neurala nätverk för att besegra mänskliga stormästare. Enligt systemutvecklarna, medan en människa lätt skulle hantera en förändring av kortstorlek (normalt ett 19×19 rutnät), skulle en liten förändring göra AlphaGo impotent tills den hade tid att träna på ny data från den ändrade storleken på tavlan.

För mig illustrerar detta på ett snyggt sätt hur "inlärning" av DNN är fundamentalt olik mänsklig inlärning, även om vi använder samma ord. Det neurala nätverket kan inte generalisera utifrån vad det har "lärt sig". Och när det gäller detta, var AlphaGo nyligen besegrade av en mänsklig motståndare som upprepade gånger använde en spelstil som inte hade funnits i träningsdatan. Denna oförmåga att hantera nya situationer verkar vara ett kännetecken för AI-system.

Språkfrågor

Språket som används för att beskriva AI-system fortsätter att påverka hur vi tänker om dem. Tyvärr, med tanke på den rimliga tillbakagången på den senaste tidens AI-hype, och några anmärkningsvärda misslyckanden med AI-system, kan det nu finnas lika många människor som är övertygade om att AI är helt värdelös som det finns medlemmar i lägret som säger att AI är på väg att uppnå mänsklig-liknande intelligens .

Jag är mycket skeptisk till det senare lägret, som beskrivits ovan, men jag tycker också att det skulle vara olyckligt att tappa den positiva inverkan som AI-system – eller, om du föredrar, system för maskininlärning – kan ha.

Jag assisterar för närvarande ett par kollegor med att skriva en bok om maskininlärningsapplikationer för nätverk, och det borde inte förvåna någon att höra att det finns massor av nätverksproblem som är mottagliga för ML-baserade lösningar. I synnerhet spår av nätverkstrafik är fantastiska datakällor, och träningsdata är maten som maskininlärningssystem frodas på.

Applikationer som sträcker sig från denial-of-service-prevention till upptäckt av skadlig programvara till geolokalisering kan alla använda ML-algoritmer, och målet med den här boken är att hjälpa nätverkande människor att förstå att ML inte är något magiskt pulver som du strör på din data för att få svar, men en uppsättning tekniska verktyg som kan användas selektivt för att ta fram lösningar på verkliga problem. Med andra ord, varken ett universalmedel eller en överhypad placebo. Syftet med boken är att hjälpa läsarna att förstå vilka ML-verktyg som är lämpliga för olika klasser av nätverksproblem.

En historia som fångade mig för en tid tillbaka var användningen av AI för att hjälpa Network Rail i Storbritannien sköta växtligheten som växer längs brittiska järnvägslinjer. Den viktigaste "AI"-tekniken här är bildigenkänning (för att identifiera växtarter) - utnyttjar den typ av teknik som DNN:er levererat under det senaste decenniet. Kanske inte lika spännande som de generativa AI-systemen som fångade världens uppmärksamhet 2023, men en bra, praktisk tillämpning av en teknik som sitter under AI-paraplyet.

Min tendens i dessa dagar är att försöka använda termen "maskininlärning" snarare än AI när det är lämpligt, i hopp om att undvika både den hype och allergiska reaktioner som "AI" nu producerar. Och med Patrick Winstons ord färska i minnet, kan jag bara börja prata om att "göra datorer användbara." ®

Chatta med oss

Hallå där! Hur kan jag hjälpa dig?