Paano Gumawa ng LLM at LLMChain sa LangChain?

Paano Gumawa Ng Llm At Llmchain Sa Langchain



Ang LangChain ay ang balangkas na may application sa Natural Language Processing o NLP na domain upang bumuo ng mga modelo sa mga wikang katulad ng tao. Ang mga modelong ito ay maaaring gamitin ng mga tao upang makakuha ng mga sagot mula sa modelo o magkaroon ng pag-uusap tulad ng ibang tao. Ginagamit ang LangChain upang bumuo ng mga kadena sa pamamagitan ng pag-iimbak ng bawat pangungusap sa pag-uusap at higit pang pakikipag-ugnayan gamit ito bilang konteksto.

Ang post na ito ay maglalarawan sa proseso ng pagbuo ng LLM at LLMChain sa LangChain.







Paano Gumawa ng LLM at LLMChain sa LangChain?

Upang bumuo ng LLM at LLMChain sa LangChain, dumaan lang sa mga nakalistang hakbang:



Hakbang 1: I-install ang Mga Module

Una, i-install ang LangChain module upang magamit ang mga library nito para sa pagbuo ng mga LLM at LLMChain:



pip install langchain





Ang isa pang module na kinakailangan upang bumuo ng mga LLM ay ang OpenAI, at maaari itong mai-install gamit ang pip command:

pip install openai



Hakbang 2: Mag-set up ng Environment

Mag-set up ng environment gamit ang OpenAI API key mula sa environment nito:

import sa amin
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

Halimbawa 1: Bumuo ng mga LLM Gamit ang LangChain

Ang unang halimbawa ay ang pagbuo ng Large Language Models gamit ang LangChain sa pamamagitan ng pag-import ng OpenAI at ChatOpenAI na mga library at ang paggamit ng llm() function:

Hakbang 1: Paggamit ng LLM Chat Model

Mag-import ng mga module ng OpenAI at ChatOpenAI upang bumuo ng isang simpleng LLM gamit ang OpenAI na kapaligiran mula sa LangChain:

mula sa langchain.chat_models import ChatOpenAI

mula sa langchain.llms import OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('hi!')

Ang modelo ay sumagot ng 'hi' na sagot tulad ng ipinapakita sa sumusunod na screenshot sa ibaba:

Ang predict() function mula sa chat_model ay ginagamit upang makuha ang sagot o tugon mula sa modelo:

chat_model.predict('hi!')

Ipinapakita ng output na ang modelo ay nasa pagtatapon ng user na nagtatanong ng mga query:

Hakbang 2: Paggamit ng Text Query

Makakakuha din ang user ng mga sagot mula sa modelo sa pamamagitan ng pagbibigay ng kumpletong pangungusap sa text variable:

text = 'Ano ang magandang pangalan ng kumpanya para sa isang kumpanyang gumagawa ng makulay na medyas?'

llm.predict(text)

Nagpakita ang modelo ng maraming kumbinasyon ng kulay para sa mga makukulay na medyas:

Kunin ang detalyadong tugon mula sa modelo gamit ang predict() function na may mga kumbinasyon ng kulay para sa mga medyas:

chat_model.predict(text)

Hakbang 3: Paggamit ng Tekstong May Nilalaman

Makukuha ng user ang sagot na may kaunting paliwanag tungkol sa sagot:

mula sa langchain.schema import HumanMessage

text = 'Ano ang magiging magandang titulo para sa isang kumpanyang gumagawa ng mga makukulay na damit'
mga mensahe = [HumanMessage(content=text)]

llm.predict_messages(messages)

Ang modelo ay nakabuo ng pamagat para sa kumpanya na 'Creative Clothing Co':

Hulaan ang mensahe upang makuha ang sagot para sa pamagat ng kumpanya kasama ang paliwanag nito:

chat_model.predict_messages(messages)

Halimbawa 2: Bumuo ng LLMChain Gamit ang LangChain

Ang pangalawang halimbawa ng aming gabay ay bumubuo ng LLMChain upang makuha ang modelo sa format ng pakikipag-ugnayan ng tao upang pagsamahin ang lahat ng mga hakbang mula sa nakaraang halimbawa:

mula sa langchain.chat_models import ChatOpenAI
mula sa langchain.prompts.chat import ChatPromptTemplate
mula sa langchain.prompts.chat import ChatPromptTemplate
mula sa langchain.prompts.chat import  SystemMessagePromptTemplatefrom langchain.prompts.chat import HumanMessagePromptTemplate
mula sa langchain.chains import LLMChain
mula sa langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse(self, text: str):
ibalik ang text.strip().split(', ')

Buuin ang template para sa modelo ng chat sa pamamagitan ng pagbibigay ng detalyadong paliwanag sa paggana nito at pagkatapos ay buuin ang LLMChain() function na naglalaman ng LLM, output parser, at chat_prompt na mga library:

template = '''Kailangan mong tumulong sa pagbuo ng mga listahang pinaghihiwalay ng kuwit
Kunin ang kategorya mula sa user, at bumuo ng listahang pinaghihiwalay ng kuwit na may limang bagay
Ang dapat lang ay ang object mula sa kategoryang'''
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = '{text}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Configure LLMChain gamit ang structure ng query
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
chain = LLMChain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run('mga kulay')

Ang modelo ay nagbigay ng sagot sa listahan ng mga kulay dahil ang kategorya ay dapat lamang maglaman ng 5 bagay na ibinigay sa prompt:

Iyon ay tungkol sa pagbuo ng LLM at LLMChain sa LangChain.

Konklusyon

Para buuin ang LLM at LLMChain gamit ang LangChain, i-install lang ang LangChain at OpenAI modules para mag-set up ng environment gamit ang API key nito. Pagkatapos noon, buuin ang modelo ng LLM gamit ang chat_model pagkatapos gawin ang prompt na template para sa isang query sa isang kumpletong chat. Ang LLMChain ay ginagamit upang bumuo ng mga kadena ng lahat ng mga obserbasyon sa pag-uusap at gamitin ang mga ito bilang konteksto ng pakikipag-ugnayan. Ang post na ito ay naglalarawan ng proseso ng pagbuo ng LLM at LLMChain gamit ang LangChain framework.