Xlera8

Microsoft-experts overwegen om Excel uit te rusten met AI

Vroeg of laat komt alles terecht in Microsoft Excel.

De 37 jaar oude spreadsheet is gebruikt om te draaien Ondergang en Pac-Man, stop-motion animatie, een turn-based role playing game, schaakspel en een neuraal netwerk, onder andere.

De nieuwste truc van Excel is afkomstig van de eigen softwareontwikkelaars van Microsoft: "FLAME: een klein taalmodel voor spreadsheetformules."

Het is gedetailleerd in een voordrukpapier van Microsoft-onderzoekers Harshit Joshi, Abishai Ebenezer, José Cambronero, Sumit Gulwani, Aditya Kanade, Vu Le, Ivan Radiček en Gust Verbruggen. De paper beschrijft een ondersteunend AI-systeem genaamd FLAME. Het is een klein taalmodel dat het maken en onderhouden van Excel-formules kan verbeteren.

Grote taalmodellen zoals OpenAI's ChatGPT zijn dat wel alle woede momenteel. Dit zijn statistische modellen die zijn getraind op grote hoeveelheden tekst en die een waarschijnlijke uitvoer kunnen voorspellen op basis van een tekstpromptinvoer.

Het probleem met grote taalmodellen is dat ze, nou ja, groot zijn - training vereist veel invoergegevens en geld, en het gebruik van het resulterende model voor inferentie vereist ook veel hardware. De onderzoekers halen bijvoorbeeld Incoder 6.7B aan, een model dat is getraind voor het invullen van code op 159 GB broncode gedurende een periode van 24 dagen met 248 Nvidia V100 GPU's.

Lambda Labs heeft geschat de kosten om GPT-3, een 175B-parametermodel, te trainen, bedragen ongeveer $ 4.6 miljoen met behulp van Tesla V100-instanties.

Met een gewicht van slechts 60 miljoen parameters is FLAME "het eerste taalmodel dat exclusief is ontworpen voor Excel-formules." Hoewel het onderzoeksartikel niet expliciet vermeldt dat FLAME een acroniem is dat staat voor "First LANguage Model for Excel", speculeren we dat dit het geval is.

Ondanks zijn bescheiden omvang slaagt FLAME erin beter te presteren dan veel grotere modellen die zijn afgestemd op het voltooien van coderegels (code-infilling), waaronder CodeT5 (220M), Codex-Cushman (12B) en Codex-Davinci (175B).

FLAME is ontworpen om Excel-formules automatisch aan te vullen of verkeerd opgemaakte formules te herstellen, en om syntaxisreconstructie uit te voeren, een techniek om scheidingstekens (bijv. accolades) uit een formule te verwijderen, zodat modellen de volledige formule gemakkelijker kunnen herkennen en reconstrueren.

Dus in een toekomstige versie van Excel, als FLAME eenmaal is aangesloten op de software, een buggy-formule als deze invoert ...

=IF('Jan 13'!B2="", 'Feb 13'!B2="", 'Mar 13'!B2="", 'Apr 13'!B2="", ja, nee)

…zou er uiteindelijk zo uit kunnen zien met behulp van FLAME's corrigerende vermogen.

=ALS(EN('Jan 13'!B2="", 'Feb 13'!B2="", 'Mar 13'!B2="", 'Apr 13'!B2=""), "ja", "Nee")

En om dit te kunnen doen met twee ordes van grootte minder trainingsgegevens dan Codex of andere grote taalmodellen, betekent dat Microsoft FLAME veel betaalbaarder zou moeten vinden om te implementeren wanneer het klaar is.

Voor degenen die grote spreadsheets met veel formules moeten onderhouden, moet je nederige aasgier zeggen: FLAME ziet er best cool uit. ®

Chat met ons

Hallo daar! Hoe kan ik u helpen?