Ang LangChain ay ang balangkas na maaaring magamit upang mag-import ng mga aklatan at dependency para sa pagbuo ng Mga Large Language Models o LLM. Ang mga modelo ng wika ay gumagamit ng memorya upang mag-imbak ng data o kasaysayan sa database bilang obserbasyon upang makuha ang konteksto ng pag-uusap. Ang memorya ay na-configure upang mag-imbak ng mga pinakabagong mensahe upang maunawaan ng modelo ang hindi malinaw na mga senyas na ibinigay ng user.
Ipinapaliwanag ng blog na ito ang proseso ng paggamit ng memory sa LLMChain sa pamamagitan ng LangChain.
Paano Gamitin ang Memory sa LLMChain Sa pamamagitan ng LangChain?
Upang magdagdag ng memorya at gamitin ito sa LLMChain sa pamamagitan ng LangChain, ang ConversationBufferMemory library ay maaaring gamitin sa pamamagitan ng pag-import nito mula sa LangChain.
Upang matutunan ang proseso ng paggamit ng memorya sa LLMChain sa pamamagitan ng LangChain, dumaan sa sumusunod na gabay:
Hakbang 1: I-install ang Mga Module
Una, simulan ang proseso ng paggamit ng memorya sa pamamagitan ng pag-install ng LangChain gamit ang pip command:
pip install langchain
I-install ang mga module ng OpenAI upang makuha ang mga dependency o library nito upang bumuo ng mga LLM o mga modelo ng chat:
pip install openai
I-setup ang kapaligiran para sa OpenAI gamit ang API key nito sa pamamagitan ng pag-import ng os at getpass library:
import sa aminimport getpass
os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')
Hakbang 2: Pag-import ng Mga Aklatan
Pagkatapos i-set up ang environment, i-import lang ang mga library tulad ng ConversationBufferMemory mula sa LangChain:
mula sa langchain.chains import LLMChainmula sa langchain.llms import OpenAI
mula sa langchain.memory import ConversationBufferMemory
mula sa langchain.prompts import PromptTemplate
I-configure ang template para sa prompt gamit ang mga variable tulad ng 'input' upang makuha ang query mula sa user at 'hist' para sa pag-iimbak ng data sa buffer memory:
template = '''Ikaw ay isang Modelo na nakikipag-chat sa isang tao{hist}
Tao: {input}
Chatbot:'''
prompt = PromptTemplate(
input_variables=['hist', 'input'], template=template
)
memorya = ConversationBufferMemory(memory_key='hist')
Hakbang 3: Pag-configure ng LLM
Kapag nabuo na ang template para sa query, i-configure ang LLMChain() na paraan gamit ang maraming parameter:
llm = OpenAI()llm_chain = LLMChain(
llm=llm,
prompt=prompt,
verbose=Totoo,
memory = memorya,
)
Hakbang 4: Pagsubok sa LLMChain
Pagkatapos nito, subukan ang LLMChain gamit ang input variable upang makuha ang prompt mula sa user sa textual form:
llm_chain.predict(input='Kumusta aking kaibigan')
Gumamit ng isa pang input upang makuha ang data na nakaimbak sa memorya para sa pagkuha ng output gamit ang konteksto:
llm_chain.predict(input='Good! I am good - how are you')
Hakbang 5: Pagdaragdag ng Memory sa isang Modelo ng Chat
Maaaring idagdag ang memorya sa chat model-based LLMChain sa pamamagitan ng pag-import ng mga library:
mula sa langchain.chat_models import ChatOpenAImula sa langchain.schema import SystemMessage
mula sa langchain.prompts import ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder
I-configure ang prompt na template gamit ang ConversationBufferMemory() gamit ang iba't ibang variable upang itakda ang input mula sa user:
prompt = ChatPromptTemplate.from_messages([SystemMessage(content='Ikaw ay isang Modelo na nakikipag-chat sa isang tao'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])
memorya = ConversationBufferMemory(memory_key='hist', return_messages=True)
Hakbang 6: Pag-configure ng LLMChain
I-set up ang LLMChain() na paraan upang i-configure ang modelo gamit ang iba't ibang argumento at parameter:
llm = ChatOpenAI()chat_llm_chain = LLMChain(
llm=llm,
prompt=prompt,
verbose=Totoo,
memory = memorya,
)
Hakbang 7: Pagsubok sa LLMChain
Sa dulo, subukan lang ang LLMChain gamit ang input para mabuo ng modelo ang text ayon sa prompt:
chat_llm_chain.predict(input='Kumusta aking kaibigan')
Ang modelo ay nag-imbak ng nakaraang pag-uusap sa memorya at ipinapakita ito bago ang aktwal na output ng query:
llm_chain.predict(input='Good! I am good - how are you')
Iyon ay tungkol sa paggamit ng memorya sa LLMChain gamit ang LangChain.
Konklusyon
Upang magamit ang memorya sa LLMChain sa pamamagitan ng LangChain framework, i-install lang ang mga module upang i-set up ang kapaligiran upang makuha ang mga dependency mula sa mga module. Pagkatapos nito, i-import lamang ang mga aklatan mula sa LangChain upang magamit ang memorya ng buffer para sa pag-iimbak ng nakaraang pag-uusap. Ang user ay maaari ding magdagdag ng memory sa chat model sa pamamagitan ng pagbuo ng LLMChain at pagkatapos ay pagsubok sa chain sa pamamagitan ng pagbibigay ng input. Ang gabay na ito ay nagpapaliwanag sa proseso ng paggamit ng memorya sa LLMChain sa pamamagitan ng LangChain.