LangChain LLM er byens hotte snak. Få et overblik over, hvad det er, og hvordan du kan komme i gang med det.

Med introduktionen af ​​store sprogmodeller (LLM'er) har Natural Language Processing været snakken på internettet. Nye applikationer udvikles dagligt på grund af LLM'er som ChatGPT og LangChain.

LangChain er en open source Python-ramme, der gør det muligt for udviklere at udvikle applikationer drevet af store sprogmodeller. Dens applikationer er chatbots, opsummering, generative spørgsmål og svar og mange flere.

Denne artikel vil give en introduktion til LangChain LLM. Det vil dække de grundlæggende begreber, hvordan det kan sammenlignes med andre sprogmodeller, og hvordan man kommer i gang med det.

Forstå LangChain LLM

Før du forklarer, hvordan LangChain fungerer, skal du først forstå hvordan store sprogmodeller fungerer. En stor sprogmodel er en type kunstig intelligens (AI), der bruger deep learning at træne maskinlæringsmodellerne på big data bestående af tekst-, numeriske og kodedata.

instagram viewer

Den store mængde data gør det muligt for modellen at lære de eksisterende mønstre og sammenhænge mellem ord, figurer og symboler. Denne funktion gør det muligt for modellen at udføre en række opgaver, såsom:

  • Tekstgenerering, sprogoversættelse, kreativ, teknisk og akademisk indholdsskrivning og præcis og relevant besvarelse af spørgsmål.
  • Genstandsgenkendelse i billeder.
  • Opsummering af bøger, artikler og forskningsartikler.

LLM'ers vigtigste begrænsning er, at modellerne er meget generelle. Denne funktion betyder, at på trods af deres evne til at udføre flere opgaver effektivt, kan de nogle gange levere generelle svar på spørgsmål eller forespørgsler, der kræver ekspertise og dyb domæneviden i stedet for specifik svar.

LangChain-rammeværket blev udviklet af Harrison Chase i slutningen af ​​2022 og tilbyder en innovativ tilgang til LLM'er. Processen starter med at forbehandle datasætteksterne ved at opdele dem i mindre dele eller resuméer. Resuméerne indlejres derefter i et vektorrum. Modellen modtager et spørgsmål, søger i resuméerne og giver det passende svar.

LangChains forbehandlingsmetode er en kritisk funktion, der er uundgåelig, da LLM'er bliver mere kraftfulde og dataintensive. Denne metode bruges hovedsageligt i kode- og semantiske søgetilfælde, fordi den giver realtidsindsamling og interaktion med LLM'erne.

LangChain LLM vs. Andre sprogmodeller

Følgende sammenlignende oversigt har til formål at fremhæve de unikke funktioner og muligheder, der adskiller LangChain LLM fra andre eksisterende sprogmodeller på markedet:

  • Hukommelse: Flere LLM'er har en kort hukommelse, hvilket normalt resulterer i tab af kontekst, hvis prompter overskrider hukommelsesgrænsen. LangChain giver dog de tidligere chat-prompter og svar, hvilket løser problemet med hukommelsesgrænser. Meddelelseshistorikken gør det muligt for en bruger at gentage de tidligere meddelelser til LLM for at opsummere den tidligere kontekst.
  • LLM skift: Sammenlignet med andre LLM'er, der låser din software med en enkelt models API, giver LangChain en abstraktion, der forenkler skift af LLM'er eller integration af flere LLM'er i din applikation. Dette er nyttigt, når du vil opgradere dine softwarefunktioner ved hjælp af en kompakt model, såsom Stability AI's StableLM sige fra OpenAI's GPT-3.5.
  • Integration: Det er nemt at integrere LangChain i din applikation sammenlignet med andre LLM'er. Det giver pipeline arbejdsgange igennem kæder og agenter, så du hurtigt kan inkorporere LangChain i din applikation. Med hensyn til lineære rørledninger er kæder objekter, der i det væsentlige forbinder adskillige dele. Agenter er mere avancerede, så du kan vælge, hvordan komponenterne skal interagere ved hjælp af forretningslogik. For eksempel vil du måske bruge betinget logik til at bestemme den næste handling baseret på resultaterne af en LLM.
  • Dataoverførsel: På grund af den generelle tekstbaserede karakter af LLM'er er det normalt vanskeligt at videregive data til modellen. LangChain løser dette problem ved at bruge indekser. Indekser gør det muligt for en applikation at importere data i variable formater og gemme dem på en måde, der gør det muligt at vise dem række-for-række til en LLM.
  • Svar: LangChain leverer output-parserværktøjer til at give svar i et passende format i modsætning til andre LLM'er, hvis modelsvar består af generel tekst. Når du bruger AI i en applikation, foretrækkes det at have en struktureret respons, som du kan programmere imod.

Kom godt i gang med LangChain LLM

Nu vil du lære, hvordan du implementerer LangChain i et virkeligt use-case-scenarie for at forstå, hvordan det fungerer. Før du starter udviklingen, skal du opsætte udviklingsmiljøet.

Opsætning af dit udviklingsmiljø

Først, skabe et virtuelt miljø og installer nedenstående afhængigheder:

  • OpenAI: For at integrere GPT-3 API i din applikation.
  • Langkæde: At integrere LangChain i din applikation.

Brug pip, kør kommandoen nedenfor for at installere afhængighederne:

 pipenv installer langchain openai

Kommandoen ovenfor installerer pakkerne og opretter et virtuelt miljø.

Importer de installerede afhængigheder

Importer først de nødvendige klasser som f.eks LLMChain, OpenAI, Samtalekæde, og PromptTemplate fra langkæde pakke.

fra langkæde importere ConversationChain, OpenAI, PromptTemplate, LLMChain

fra langkæde.hukommelse importere ConversationBufferWindowMemory

LangChain klasserne skitserer og udfører sprogmodelkæderne.

Få adgang til OpenAI API-nøgle

Hent derefter OpenAI API-nøglen. For at få adgang til OpenAIs API-nøgle skal du have en OpenAI-konto og derefter gå til OpenAI API platform.

Klik på profilikonet på dashboardet. Klik derefter på Se API-nøgler knap.

Klik derefter på Opret ny hemmelig nøgle knappen for at få en ny API-nøgle.

Indtast det ønskede navn på API-nøglen.

Du vil modtage en hemmelig nøgle hurtig.

Kopier og gem API-nøglen et sikkert sted til fremtidig brug.

Udvikling af en applikation ved hjælp af LangChain LLM

Du vil nu fortsætte med at udvikle en simpel chatapplikation som følger:

# Tilpas LLM-skabelonen 
skabelon = Assistant er en stor sprogmodel uddannet af OpenAI.

{historie}
Menneske: {human_input}
Assistent:

prompt = PromptTemplate (input_variables=["historie", "menneskeligt_input"], skabelon=skabelon)

Dernæst vil du indlæse ChatGPT-kæden ved hjælp af den API-nøgle, du gemte tidligere.

chatgpt_chain = LLMChain(

llm=OpenAI(openai_api_key="OPENAI_API_KEY",temperatur=0),
prompt=prompt,
verbose=Rigtigt,
memory=ConversationBufferWindowMemory (k=2),

)
# Forudsige en sætning ved hjælp af chatgpt-kæden
output = chatgpt_chain.predict(
human_input="Hvad er MakeUseOf?"
)
# Vis modellens svar
print (output)

Denne kode indlæser LLM-kæden med OpenAI API-nøglen og promptskabelonen. Brugerinput leveres derefter, og dens output vises.

Ovenfor er det forventede output.

LLM'ers stigende indflydelse

LLMs forbrug vokser hurtigt og ændrer, hvordan mennesker interagerer med vidensmaskiner. Frameworks som LangChain er på forkant med at give udviklere en smidig og enkel måde at betjene LLM'erne til applikationer på. Generative AI-modeller som ChatGPT, Bard og Hugging Face er heller ikke efterladt i avancerede LLM-applikationer.