ABAP2XLSX är ett bibliotek med öppen källkod för ABAP som tillhandahåller ett programmatiskt gränssnitt för att skapa, redigera och spara Microsoft Excel-filer (i XLSX-format) direkt från SAP-system.
Lås upp dina RAP-färdigheter med AI
På LeverX driver vårt engagemang som en ledande leverantör av ABAP-utvecklingslösningar oss att kontinuerligt förbättra våra färdigheter, särskilt inom den utvecklande RAP (Restful ABAP Programming model). I en tid då de främsta teknikföretagen investerar kraftigt i den snabba utvecklingen av artificiell intelligens (AI) inser vi den kritiska vikten av att moderna utvecklare förstår grunderna i AI-teknik. Det är därför LeverX föreslår att utnyttja kraften i AI genom att integrera AI-drivna verktyg i våra dagliga inlärningsmetoder
Vi har hört mycket om NotebookLM från YouTube och olika specialiserade medier. Vetenskapsentusiaster rekommenderar verktyget som en personlig assistent för att utforska ett brett spektrum av kunskapskällor. Så vi bestämde oss för att prova det själva och bedöma vilka fördelar det kan erbjuda.
Huvudidén med den här artikeln är att illustrera hur LeverX kan utnyttja NotebookLM och dess Large Language Model (LLM) för att förbättra våra RAP-färdigheter. Om du redan är bekant med det här verktyget kan du hoppa över introduktionsavsnittet och gå direkt till de specifika scenarierna.
Innan vi dyker in i det hela vill jag säga att det här är en omfattande läsning. Så varför inte ta med ditt favoritkaffe, sätta dig bekvämt tillrätta och följa med LeverX på detta upplysande äventyr?
Är NotebookLM värt att integrera i ditt lärande?
Lång historia kort: Är det nödvändigt att integrera ett inlärningsarbetsflöde som använder NotebookLM och dess tillhörande LLM i din personliga utbildningsresa? Det kortfattade svaret är jakande - ja, det är värt det.
Men det är också viktigt att erkänna vissa begränsningar (som dataintegritetsproblem och beroende av inmatningskvalitet). Icke desto mindre är möjligheten att experimentera med NotebookLM verkligen värdefull.
Vad exakt är NotebookLM?
NotebookLM är ett verktyg som utvecklats av Google och som fungerar som en AI-driven forskningsassistent. Tänk på det som en smart assistent som hjälper dig att lära dig. Du kan ladda upp olika källor (som dokument eller videor) till den, och sedan genererar den relevanta förslag och svar som är strikt knutna till dessa källor. Det betyder att den inte bara hittar på saker, utan hänvisar tillbaka till den information du har gett den.
Hur ser arbetsytan ut?

Föreställ dig att NotebookLM har tre huvudsektioner:
- På höger sida: Här hittar du en mängd olika uppladdade källor, främst PDF-filer och YouTube-videor. En viktig funktion här är möjligheten att aktivera eller inaktivera dessa källor, så att du kan styra hur mycket sammanhang NotebookLM använder när du ställer frågor till den. Vi kommer att utforska hur sammanhanget byggs upp och hur svaren länkar tillbaka till dessa källor i avsnittet "Svarsuppbyggnad". Den här funktionen är superbekväm och värd en djupare titt.
- I mitten: Det här är ditt chattrum, där du kan skriva in frågor (prompter) och få svar. Svaren bygger alltid på de källor som du har valt. Vi planerar att använda detta område flitigt under vår studie. Kort sagt, se det som ett chattgränssnitt som drivs av en LLM som använder dina uppladdade källor som sin kunskapsbas.
- På vänster sida: Detta område innehåller NotebookLM Studio, som erbjuder funktioner som är färdiga att använda. Du kan till exempel generera studiehandböcker, sammanställa Briefing-källor eller skapa FAQ-sessioner. NotebookLM Studio kan till och med simulera podcasts baserat på ditt innehåll. Vi föredrar dock i allmänhet att inte använda dessa inbyggda funktioner, förutom att spara chattutgångar som anteckningar. Denna enkla men värdefulla funktion gör att du kan spara LLM-svar för framtida referens.
Innan vi går vidare, låt oss ta en stund för att diskutera källorna mer i detalj.
Varifrån kommer källorna?
För att effektivt kunna använda RAP-dokumentation (information om Restful ABAP Programming-modellen) som en uppladdad källa i NotebookLM, är det viktigt att välja dokumentation i rätt format - särskilt PDF.
Goda nyheter! SAP underlättar denna process genom att tillåta användare att ladda ner sin dokumentation i PDF-format. För att få det nödvändiga materialet, navigera helt enkelt till den officiella SAP-webbplatsen som är avsedd för RAP-dokumentation och leta reda på alternativet för att ladda ner PDF, vilket gör det möjligt att skapa en anpassad PDF-fil.

Genom att följa denna enkla procedur kan man säkra en primär källa för LLM. Det är värt att notera att det bara är fantasin som sätter gränser för de potentiella användningsområdena för dessa källor.
Scenario 1: Förklara med N ord
Den grundläggande idén här är att be NotebookLM-chatten att förklara olika RAP-koncept med hjälp av olika längder.
Vår uppmaning: N ord

Svar från NotebookLM: N ords förklaring

Detta tillvägagångssätt för att lära sig begrepp är särskilt effektivt. Korta förklaringar hjälper oss att memorera kärnan i definitionen, medan medellånga beskrivningar ger kortfattade men informativa definitioner av RAP-terminologi. Mer omfattande förklaringar går djupare in på detaljer och belyser sambanden mellan relaterade RAP-begrepp.
Detta exempel utgör en utmärkt grund för djupare utforskning. Man kan t.ex. använda NotebookLM med frågor som är utformade för att öka förståelsen för syskon RAP-koncept, som Draft Table, Transactional Buffer, RAP Runtime Framework, Draft Actions och Exclusive Locks.
En relevant fråga kan vara: "Vilken roll spelar transaktionsbufferten i en icke-hanterad typ av RAP-implementering av affärsobjekt?" Detta kräver en djupare inblick i RAP:s invecklade funktioner.
Innan vi går in på de efterföljande scenarierna, låt oss klargöra hur NotebookLM formulerar sina svar.
Mellanspel: Hur NotebookLM bygger upp svaren
Du kanske har observerat de grå cirklarna med numeriska indikatorer i mitten. Detta är en klickbar länk som ger tillgång till prov från de uppladdade källorna. Denna funktion förkroppsligar en av NotebookLM:s kärnprinciper: LLM-motorn försöker konsekvent underbygga sina slutsatser med data från auktoritativa källor.
Vi funderade till exempel på vad som låg bakom valet av termen "Staging" som en deskriptor med ett ord. För att få klarhet hölls muspekaren över ikonen markerad med siffran "1".
Som svar presenterade NotebookLM ett direkt utdrag från den relevanta källan.

Vi gick till SAP:s hjälpportal och hittade texten i fråga, som var logiskt placerad i kapitlen som rörde Business Object, RAP BO Provisioning och Draft. Det verkar som om LLM har hämtat informationen från den dokumentation som beskriver grunderna i utkastprocessen. Detta tillvägagångssätt är berömvärt, eftersom det visar att modellen har definierat nyckelbegreppet i rätt sammanhang och inte valt det godtyckligt.

Man kan faktiskt tolka termen "Staging" i dokumentationen med en kort förklaring om att "utkastarbetet är som en staging area". Denna association är till hjälp för att förstå och minnas det underliggande konceptet.
Dessutom har länksystemets funktion inom NotebookLM illustrerats. LLM genererar svar baserat på de källor du tillhandahåller, vilket säkerställer en grundad och kontextuellt relevant utmatning.
Skapande av anteckningar: Att komma ihåg viktig information
Huvudmålet är att komma ihåg och förstå informationen från källorna. Memoreringsprocessen innebär att vi tillägnar oss ny information, som inledningsvis finns i vårt korttidsminne. För att underlätta överföringen av denna kunskap till långtidsminnet är det viktigt att upprepade gånger gå tillbaka till och engagera sig i materialet. Genom denna iterativa process konsoliderar vårt kognitiva system gradvis informationen och uppnår i slutändan målet om långtidslagring.
I slutet av varje svar hittar du en knapp märkt "Save to Note", som gör det möjligt att skapa en anteckning som lagras i NotebookLM. Denna funktion återspeglar produktens nomenklatur och fungerar som ett värdefullt verktyg för att återbesöka och förstärka din förståelse av innehållet.

Sparade anteckningar kan nås på höger sida av NotebookLM-gränssnittet, vilket möjliggör effektiv granskning och konsolidering av kunskap. Med detta ramverk i åtanke kan du nu gå vidare till nästa scenario.
Scenario 2: Spel med termdefinitioner
Tanken är att engagera en LLM i en process där den slumpmässigt väljer ut begrepp från RAP-dokumentationen och presenterar dem för din analys. Du svarar sedan på frågorna i chattgränssnittet och LLM utvärderar dina svar. Dessutom har du möjlighet att använda olika skalor för bedömningen, t.ex. procentbaserade utvärderingar eller en numerisk skala från 1 till 10.
Vår uppmaning: Välj en slumpmässig RAP-term.

Den valde RAP-termen "ABAP Behavior Pool".
NotebookLM svar: Förklara ABAP Behavior Pool

Ett svar gavs på måfå, bara för att se hur det skulle bedömas.

Därefter gavs feedback på förklaringen.
NotebookLM svar: Bedömning av svar

I det här fallet bedömde LLM svaret och framhävde de aspekter av uppsatsen som överensstämde med SAP RAP-dokumentationen. I förklaringsavsnittet kompletterades dessutom svaret med ytterligare insikter, t.ex. genom att nämna funktionskontroll tillsammans med olika typer av transaktionsbeteende som inte hade tagits med. Modellen gav också specifik syntaxvägledning, t.ex. "implementation in class", för att förfina påståendet "mentioned in BDEF". En noggrann granskning av förklaringsdelen av svaret gjorde det möjligt att förbättra artikuleringen och förbättra den övergripande kvaliteten på svaret. LLM erbjöd också många hänvisningar till relevanta källor för vidare utforskning.
Därefter uppstod ett intresse för konsekvenserna av att ge ett felaktigt svar. Som ett resultat av detta uppmanades man att välja en annan RAP-term för analys.
Termen "Determination" valdes, vilket medvetet gav ett felaktigt svar som överensstämde med definitionen av "Validation", snarare än att korrekt återspegla definitionen av "Determination".
Vår uppmaning: Definiera "Determination" som "Validation".

Resultatet blev att utvärderingen gav ett negativt omdöme och sedan en korrekt definition som stöddes av auktoritativa källor. Dessutom klargjorde modellen orsakerna till att svaret var felaktigt och genomförde därefter en jämförande analys mellan "Definition" och "Validering".
NotebookLM svar: Blandade ihop Bestämning med Validering

Du kan se att systemet identifierade motsägelserna i svaret, insåg att "Definition" hade förväxlats med "Validation" och gav sedan en kort jämförelse mellan termerna.
Detta scenario simulerar intervjuprocessen och kan användas under den förberedande fasen före sammanfattningen. Dessutom kan man sammanställa en omfattande lista över relevant RAP-terminologi, komplett med definitioner, och skicka den till ChatGPT eller en annan LLM som är utrustad med röst-till-text- och text-till-tal-funktioner. Utifrån den sammanställda listan med frågor kan modellen sedan underlätta en interaktiv, talad frågestund.
ChatGPT röstläge

Scenario 3: Skapande av fusklapp
Ett annat sätt att använda NotebookLM är att skapa fusklappar för RAP Business Object (BO)-koncept, t.ex. en fusklapp för Behavior Definition Language (BDL). BDL fungerar som det språkliga ramverk som avgränsar nyckelord för BDEF-källkod.
Vår uppmaning: Skapa fusklapp

I den första iterationen av fusklapparna var innehållet mer omfattande än önskat. Följaktligen ombads språkmodellen att kondensera den avsevärt. Efter flera försök producerade den en mer kortfattad version. Här är resultatet:
NotebookLM svar: Nummereringshjälpmedel

Det finns några viktiga saker att tänka på. För det första, när du använder LLM, rekommenderas det starkt att ange ett visst ämne för fuskbladets utmatning. I det här fallet efterfrågades specifikt numrering i stället för en fullständig fusklapp för RAP BDEF. Skälet till detta är att bredare ämnen tenderar att medföra en högre risk för felaktigheter. Om t.ex. ett specifikt ämne diskuteras uteslutande i samband med hanterade implementeringstyper, kan NotebookLM-motorn felaktigt dra slutsatsen att den associerade funktionen gäller uteslutande för hanterade scenarier, vilket inte nödvändigtvis är sant. Var försiktig med det.
För det andra rekommenderas det starkt att du läser ämnet i förväg för att kunna identifiera eventuella faktiska avvikelser. Enligt vår mening är det absolut nödvändigt att verifiera LLM:s resultat innan det tillämpas i en produktionsmiljö.
För det tredje rekommenderas en noggrann granskning av varje uttalande i fusklapparna, förfining av ordalydelsen vid behov och eventuellt införlivande av ytterligare exakt information. Först efter denna grundliga granskningsprocess kan fusklappen anses vara klar för användning och fungera som en värdefull kunskapsresurs.
Eftersom du är säker på innehållet och det inte innehåller några faktafel kan du spara fusklapparna som en anteckning och sedan gå tillbaka till dem strax före intervjun.
Bonus-scenario: Diagram från fusklapp
Om du föredrar att lära dig materialet visuellt kan du använda valfritt AI-diagramgenereringsverktyg för att skapa ett diagram från en fusklapp. Ett sådant verktyg som vi har använt är Napkin AI. Vi föreslog det genererade fuskbladet från NotebookLM.
AI Input: Tidigare fusklapp för att generera diagram



Och här är det resultat vi fick.
AI-utgång: Diagram skapat från fusklapp

Slutsats: Är NotebookLM rätt för dig?
NotebookLM erbjuder ett lovande tillvägagångssätt för inlärning genom att utnyttja LLM baserat på dina egna insamlade källor. Men som alla AI-verktyg har det sina styrkor och begränsningar som är viktiga att tänka på. Här är en sammanfattning av de viktigaste fördelarna, nackdelarna och förslagen för att förbättra ditt arbetsflöde med NotebookLM:
Fördelar:
- Ger en LLM som är baserad på dina personliga källor, vilket förbättrar relevans och sammanhang.
- Stödjer olika typer av inmatningar, inte bara text utan även YouTube-videor.
- De flesta LLM-genererade uttalanden innehåller länkar till originalkällorna, vilket gör verifiering bekväm.
- LLM kan skapa olika typer av inlärningsinnehåll, t.ex. frågesporter, spel och fusklappar.
- Du kan spara utdata som anteckningar, redigera eller förfina dem och återbesöka dem senare som färdiga studiematerial.
- Funktioner som ljudsammanfattningar, källinformation och frågor och svar (även om LeverX inte har utforskat dem djupt) kan vara användbara i rätt situationer.
- Chattgränssnittet erbjuder uppmaningar som hjälper dig att utforska källor ytterligare och guidar dig genom materialet.
- Det kan simulera en dialog genom att ställa frågor eller korrigera dina svar, vilket ökar engagemanget.
- NotebookLM kan kombineras med andra AI-verktyg, t.ex. ChatGPT för faktakontroll eller röstläge, och bildgeneratorer som Napkin AI, för att berika din inlärningsupplevelse.
Minus:
- Noggrannheten i utdata är cirka 85-90%, så det är inte helt tillförlitligt.
- Du måste noggrant granska och revidera allt genererat innehåll innan du använder det.
- Utdata kräver ofta manuell förbättring för att vara redo för praktisk användning.
- För att få bättre resultat är det bra att känna till det efterfrågade materialet lite i förväg.
- Det är viktigt att behålla kontrollen över LLM för att undvika felaktigheter, t.ex. genom att begränsa längden på utdata.
- Ju bredare eller mer komplext ämnet är, desto större är risken för hallucinationer eller felaktiga uttalanden.
Förslag för att förbättra arbetsflöde och noggrannhet:
- Förbättra ditt källmaterial genom att lägga till manuellt skapade eller mer detaljerade dokument för att fylla luckor.
- Förfina och experimentera med prompter; prompt engineering är ett viktigt område att utforska för att få bättre resultat.
- Använd en kedja av uppmaningar för att klargöra eller bryta ner tvivelaktiga resultat, t.ex. genom att ställa uppföljningsfrågor som "Varför ger du det här svaret?"
- Kombinera AI-faktakontroll med manuell granskning - börja med ChatGPT för att verifiera fakta och utför sedan dina egna kontroller.
Skulle LeverX rekommendera NotebookLM till andra? Ja, men med försiktighet. Det är ett värdefullt verktyg för experiment och lärande, särskilt för utvecklare som är angelägna om att integrera AI i sina studierutiner. Kom bara ihåg: som alla assistenter fungerar det bäst under informerad övervakning.