Xlera8

Microsoft boffins vurderer å utstyre Excel med AI

Før eller siden havner alt i Microsoft Excel.

Det 37 år gamle regnearket har blitt brukt til å kjøre Doom og Pac-Man, stop-motion animasjon, en turbasert rollespill, sjakkog et nevralt nettverk, blant annet.

Excels siste triks kommer med tillatelse fra Microsofts egne programvareutviklere: "FLAME: En liten språkmodell for regnearkformler."

Det er detaljert i et forhåndstrykkpapir fra Microsoft-forskerne Harshit Joshi, Abishai Ebenezer, José Cambronero, Sumit Gulwani, Aditya Kanade, Vu Le, Ivan Radiček og Gust Verbruggen. Artikkelen beskriver et assisterende AI-system kalt FLAME. Det er en liten språkmodell som kan forbedre opprettelsen og vedlikeholdet av Excel-formler.

Store språkmodeller som OpenAIs ChatGPT er alt raseriet for øyeblikket. Dette er statistiske modeller trent på store mengder tekst som kan forutsi en sannsynlig utgang basert på en tekstmelding.

Problemet med store språkmodeller er at de er, vel, store – opplæring krever mye inndata og penger, og å bruke den resulterende modellen for slutninger krever også mye maskinvare. Forskerne siterer for eksempel Incoder 6.7B, en modell som er trent for kodeutfylling på 159 GB kildekode over en periode på 24 dager med 248 Nvidia V100 GPUer.

Lambda Labs har anslått kostnaden for å trene GPT-3, en 175B-parametermodell, kommer til rundt 4.6 millioner dollar ved å bruke Tesla V100-forekomster.

Med en vekt på bare 60 millioner parametere er FLAME "den første språkmodellen designet eksklusivt for Excel-formler." Selv om forskningsartikkelen ikke eksplisitt sier at FLAME er et akronym som representerer "First LANguage Model for Excel", spekulerer vi i at dette er tilfelle.

Til tross for sin beskjedne størrelse, klarer FLAME å utkonkurrere mye større modeller som er innstilt for å fullføre kodelinjer (kodeutfylling), inkludert CodeT5 (220M), Codex-Cushman (12B) og Codex-Davinci (175B).

FLAME er designet for å autofullføre Excel-formler eller reparere misdannede formler, og for å håndtere syntaksrekonstruksjon, en teknikk for å fjerne skilletegn (f.eks. krøllete klammeparenteser) fra en formel slik at modellene lettere kan gjenkjenne og rekonstruere hele formelen.

Så i en fremtidig versjon av Excel, når FLAME har blitt koblet til programvaren, skriver du inn en buggy-formel som dette...

=IF('13. jan'!B2="", '13. feb'!B2="", '13. mars'!B2="", '13. april'!B2="", ja, nei)

...kan ende opp med å se slik ut ved hjelp av FLAMEs korrigerende evne.

=IF(AND('13. jan'!B2="", '13. feb'!B2="", '13. mars'!B2="", '13. april'!B2=""), "ja", "Nei")

Og å kunne gjøre det med to størrelsesordener mindre treningsdata enn Codex eller andre store språkmodeller betyr at Microsoft bør finne FLAME mye rimeligere å distribuere når den er klar.

For de som må vedlikeholde store regneark med mange formler, må den ydmyke gribben din si at FLAME ser ganske kul ut. ®

Chat med oss

Hei der! Hvordan kan jeg hjelpe deg?