Xlera8

Vergeet de AI-doem en hype, laten we computers nuttig maken

Systeem benadering Volledige onthulling: ik heb een geschiedenis met AI, ik heb ermee geflirt in de jaren tachtig (weet je nog expertsystemen?) en vervolgens de AI-winter van eind jaren tachtig veilig vermeden door over te gaan tot formele verificatie voordat ik uiteindelijk op netwerken belandde als mijn specialiteit in 1980.

En net zoals mijn Systems Approach-collega Larry Peterson klassiekers als de Pascal-handleiding op zijn boekenplank heeft staan, heb ik nog steeds een paar AI-boeken uit de jaren tachtig op de mijne, met name die van PH Winston. Artificial Intelligence (1984). Het is een genot om door dat boek te bladeren, in die zin dat het grotendeels lijkt alsof het gisteren geschreven is. Het voorwoord begint bijvoorbeeld zo:

Het vakgebied van de kunstmatige intelligentie is enorm veranderd sinds de eerste editie van dit boek verscheen. Vakken op het gebied van kunstmatige intelligentie zijn de norm voor studenten computerwetenschappen, en verhalen over kunstmatige intelligentie verschijnen regelmatig in de meeste gerenommeerde nieuwsmagazines. Een deel van de reden voor verandering is dat er solide resultaten zijn geboekt.

Ik was ook geïntrigeerd door enkele voorbeelden uit 1984 van ‘wat computers kunnen doen’. Een voorbeeld was het oplossen van zeer moeilijke calculusproblemen – opmerkelijk omdat nauwkeurige rekenkunde buiten de mogelijkheden van de huidige op LLM gebaseerde systemen lijkt te liggen.

Als calculus in 1984 al door computers kon worden opgelost, terwijl elementaire rekenkunde de systemen die wij als de modernste stand van de techniek beschouwen, in de weg staat, is de vooruitgang op het gebied van AI in de afgelopen veertig jaar misschien niet zo groot als op het eerste gezicht lijkt. (Dat gezegd hebbende, er zijn zelfs beter Tegenwoordig zijn systemen die calculus aanpakken, gewoon niet gebaseerd op LLM's, en het is onduidelijk of iemand ze AI noemt.)

Een van de redenen dat ik mijn oude exemplaar van Winston oppakte, was om te zien wat hij te zeggen had over de definitie van AI, want ook dat is een controversieel onderwerp. Zijn eerste kijk hierop is niet erg bemoedigend:

Kunstmatige intelligentie is de studie van ideeën die computers in staat stellen intelligent te zijn.

Nou, oké, dat is behoorlijk circulair, aangezien je intelligentie op de een of andere manier moet definiëren, zoals Winston toegeeft. Maar hij gaat vervolgens verder met het benoemen van twee doelen van AI:

  1. Om computers nuttiger te maken
  2. De principes begrijpen die intelligentie mogelijk maken.

Met andere woorden: het is moeilijk om intelligentie te definiëren, maar misschien zal de studie van AI ons helpen een beter begrip te krijgen van wat het is. Ik zou zo ver willen gaan om te zeggen dat we veertig jaar later nog steeds debatteren over wat intelligentie inhoudt. Het eerste doel lijkt lovenswaardig, maar is duidelijk van toepassing op veel niet-AI-technologie.

Dit debat over de betekenis van ‘AI’ blijft boven de sector hangen. Ik ben veel tirades tegengekomen dat we de term Artificial General Intelligence, oftewel AGI, niet nodig zouden hebben als de term AI niet zo vervuild was door mensen die statistische modellen als AI op de markt brachten. Ik koop dit niet echt. Voor zover ik weet heeft AI altijd een breed scala aan computertechnieken bestreken, waarvan de meeste niemand zouden laten denken dat de computer menselijke intelligentieniveaus vertoonde.

Toen ik me ongeveer acht jaar geleden opnieuw ging bezighouden met AI, hadden neurale netwerken – die sommige van mijn collega’s in 1988 gebruikten voordat ze uit de gratie raakten – een verrassende comeback gemaakt, tot het punt waarop beeldherkenning door diepe neurale netwerken hadden overtroffen de snelheid en nauwkeurigheid van mensen, zij het met enkele kanttekeningen. Deze opkomst van AI leidde tot een zekere mate van ongerustheid onder mijn technische collega's bij VMware, die voelden dat er een belangrijke technologische verschuiving op komst was die (a) de meesten van ons niet begrepen (b) onze werkgever niet in de positie was om hiervan te profiteren .

Terwijl ik mezelf op de taak stortte om te leren hoe neurale netwerken werken (met a grote hulp van Rodney Brooks) kwam ik tot het besef dat de taal die we gebruiken om over AI-systemen te praten een aanzienlijke impact heeft op hoe we erover denken. In 2017 hoorden we bijvoorbeeld veel over ‘deep learning’ en ‘deep neurale netwerken’, en het gebruik van het woord ‘deep’ heeft een interessante dubbele betekenis. Als ik zeg dat ik ‘diepe gedachten’ heb, kun je je voorstellen dat ik nadenk over de zin van het leven of iets dat even zwaar is, en dat ‘diep leren’ iets soortgelijks lijkt te impliceren.

Maar in feite is het ‘diepe’ in ‘diep leren’ een verwijzing naar de diepte, gemeten in aantal lagen, van het neurale netwerk dat het leren ondersteunt. Het is dus niet “diep” in de zin van betekenisvol, maar gewoon diep, net zoals een zwembad een diep gedeelte heeft – het gedeelte met meer water erin. Deze dubbele betekenis draagt ​​bij aan de illusie dat neurale netwerken ‘denken’.

Een soortgelijke verwarring geldt voor ‘leren’, en dat is waar Brooks zo behulpzaam bij was: een diep neuraal netwerk (DNN) wordt beter in een taak naarmate het meer trainingsgegevens krijgt, dus in die zin ‘leert’ het van ervaringen, maar de manier waarop het leert lijkt in niets op de manier waarop een mens dingen leert.

Overweeg als voorbeeld van hoe DNN's leren AlphaGo, het gameplay-systeem dat gebruik maakte van neurale netwerken verslaan menselijke grootmeesters. Volgens de systeemontwikkelaars zou een mens gemakkelijk een verandering van bordgrootte aankunnen (normaal gesproken een 19×19 raster), maar een kleine verandering zou AlphaGo impotent maken totdat het tijd had om te trainen op nieuwe gegevens van het gewijzigde bord.

Voor mij illustreert dit mooi hoe het ‘leren’ van DNN’s fundamenteel verschilt van het menselijk leren, zelfs als we hetzelfde woord gebruiken. Het neurale netwerk is niet in staat te generaliseren op basis van wat het ‘geleerd’ heeft. En om dit punt te maken: AlphaGo is onlangs verschenen verslagen door een menselijke tegenstander die herhaaldelijk een speelstijl gebruikte die niet in de trainingsgegevens stond. Dit onvermogen om met nieuwe situaties om te gaan lijkt een kenmerk van AI-systemen te zijn.

Taal is belangrijk

De taal die wordt gebruikt om AI-systemen te beschrijven, blijft van invloed op hoe we erover denken. Helaas zijn er, gezien de redelijke terugslag op de recente AI-hype en enkele opmerkelijke mislukkingen met AI-systemen, nu net zoveel mensen ervan overtuigd dat AI volkomen waardeloos is als er leden zijn van het kamp dat zegt dat AI op het punt staat mensachtige intelligentie te bereiken. .

Ik ben zeer sceptisch over het laatste kamp, ​​zoals hierboven geschetst, maar ik denk ook dat het jammer zou zijn om de positieve impact uit het oog te verliezen die AI-systemen – of, als je dat liever hebt, machine-learning-systemen – kunnen hebben.

Ik assisteer momenteel een paar collega's bij het schrijven van een boek over machine-learning-toepassingen voor netwerken, en het zou niemand moeten verbazen om te horen dat er veel netwerkproblemen zijn die vatbaar zijn voor op ML gebaseerde oplossingen. Vooral sporen van netwerkverkeer zijn fantastische gegevensbronnen, en trainingsgegevens zijn het voedsel waarop machine-learningsystemen gedijen.

Toepassingen variërend van denial-of-service-preventie tot malwaredetectie tot geolocatie kunnen allemaal gebruik maken van ML-algoritmen, en het doel van dit boek is om netwerkmensen te helpen begrijpen dat ML niet een magisch poeder is dat je over je gegevens strooit om ze te verkrijgen. antwoorden, maar een reeks technische hulpmiddelen die selectief kunnen worden toegepast om oplossingen voor echte problemen te produceren. Met andere woorden, noch een wondermiddel, noch een overgehypte placebo. Het doel van het boek is om lezers te helpen begrijpen welke ML-tools geschikt zijn voor verschillende soorten netwerkproblemen.

Een verhaal dat enige tijd geleden mijn aandacht trok, was het gebruik van AI om Network Rail in Groot-Brittannië te helpen de vegetatie beheren dat groeit langs de Britse spoorlijnen. De belangrijkste ‘AI’-technologie hier is beeldherkenning (om plantensoorten te identificeren) – waarbij gebruik wordt gemaakt van het soort technologie dat DNN’s de afgelopen tien jaar hebben geleverd. Misschien niet zo spannend als de generatieve AI-systemen die in 2023 de aandacht van de wereld trokken, maar een goede, praktische toepassing van een techniek die onder de AI-paraplu valt.

Mijn neiging is tegenwoordig om te proberen de term 'machine learning' te gebruiken in plaats van AI wanneer dat gepast is, in de hoop zowel de hype als de allergische reacties te vermijden die 'AI' nu teweegbrengt. En met de woorden van Patrick Winston nog vers in mijn geheugen, zou ik misschien kunnen gaan praten over ‘het nuttig maken van computers’. ®

Chat met ons

Hallo daar! Hoe kan ik u helpen?