Paano Gamitin ang Memory sa LLMChain Sa pamamagitan ng LangChain?

Paano Gamitin Ang Memory Sa Llmchain Sa Pamamagitan Ng Langchain



Ang LangChain ay ang balangkas na maaaring magamit upang mag-import ng mga aklatan at dependency para sa pagbuo ng Mga Large Language Models o LLM. Ang mga modelo ng wika ay gumagamit ng memorya upang mag-imbak ng data o kasaysayan sa database bilang obserbasyon upang makuha ang konteksto ng pag-uusap. Ang memorya ay na-configure upang mag-imbak ng mga pinakabagong mensahe upang maunawaan ng modelo ang hindi malinaw na mga senyas na ibinigay ng user.

Ipinapaliwanag ng blog na ito ang proseso ng paggamit ng memory sa LLMChain sa pamamagitan ng LangChain.







Paano Gamitin ang Memory sa LLMChain Sa pamamagitan ng LangChain?

Upang magdagdag ng memorya at gamitin ito sa LLMChain sa pamamagitan ng LangChain, ang ConversationBufferMemory library ay maaaring gamitin sa pamamagitan ng pag-import nito mula sa LangChain.



Upang matutunan ang proseso ng paggamit ng memorya sa LLMChain sa pamamagitan ng LangChain, dumaan sa sumusunod na gabay:



Hakbang 1: I-install ang Mga Module

Una, simulan ang proseso ng paggamit ng memorya sa pamamagitan ng pag-install ng LangChain gamit ang pip command:





pip install langchain

I-install ang mga module ng OpenAI upang makuha ang mga dependency o library nito upang bumuo ng mga LLM o mga modelo ng chat:



pip install openai

I-setup ang kapaligiran para sa OpenAI gamit ang API key nito sa pamamagitan ng pag-import ng os at getpass library:

import sa amin
import getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

Hakbang 2: Pag-import ng Mga Aklatan

Pagkatapos i-set up ang environment, i-import lang ang mga library tulad ng ConversationBufferMemory mula sa LangChain:

mula sa langchain.chains import LLMChain
mula sa langchain.llms import OpenAI

mula sa langchain.memory import ConversationBufferMemory

mula sa langchain.prompts import PromptTemplate

I-configure ang template para sa prompt gamit ang mga variable tulad ng 'input' upang makuha ang query mula sa user at 'hist' para sa pag-iimbak ng data sa buffer memory:

template = '''Ikaw ay isang Modelo na nakikipag-chat sa isang tao

{hist}
Tao: {input}
Chatbot:'''

prompt = PromptTemplate(
input_variables=['hist', 'input'], template=template
)
memorya = ConversationBufferMemory(memory_key='hist')

Hakbang 3: Pag-configure ng LLM

Kapag nabuo na ang template para sa query, i-configure ang LLMChain() na paraan gamit ang maraming parameter:

llm = OpenAI()
llm_chain = LLMChain(
llm=llm,
prompt=prompt,
verbose=Totoo,
memory = memorya,
)

Hakbang 4: Pagsubok sa LLMChain

Pagkatapos nito, subukan ang LLMChain gamit ang input variable upang makuha ang prompt mula sa user sa textual form:

llm_chain.predict(input='Kumusta aking kaibigan')

Gumamit ng isa pang input upang makuha ang data na nakaimbak sa memorya para sa pagkuha ng output gamit ang konteksto:

llm_chain.predict(input='Good! I am good - how are you')

Hakbang 5: Pagdaragdag ng Memory sa isang Modelo ng Chat

Maaaring idagdag ang memorya sa chat model-based LLMChain sa pamamagitan ng pag-import ng mga library:

mula sa langchain.chat_models import ChatOpenAI
mula sa langchain.schema import SystemMessage
mula sa langchain.prompts import ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

I-configure ang prompt na template gamit ang ConversationBufferMemory() gamit ang iba't ibang variable upang itakda ang input mula sa user:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='Ikaw ay isang Modelo na nakikipag-chat sa isang tao'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

memorya = ConversationBufferMemory(memory_key='hist', return_messages=True)

Hakbang 6: Pag-configure ng LLMChain

I-set up ang LLMChain() na paraan upang i-configure ang modelo gamit ang iba't ibang argumento at parameter:

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
prompt=prompt,
verbose=Totoo,
memory = memorya,
)

Hakbang 7: Pagsubok sa LLMChain

Sa dulo, subukan lang ang LLMChain gamit ang input para mabuo ng modelo ang text ayon sa prompt:

chat_llm_chain.predict(input='Kumusta aking kaibigan')

Ang modelo ay nag-imbak ng nakaraang pag-uusap sa memorya at ipinapakita ito bago ang aktwal na output ng query:

llm_chain.predict(input='Good! I am good - how are you')

Iyon ay tungkol sa paggamit ng memorya sa LLMChain gamit ang LangChain.

Konklusyon

Upang magamit ang memorya sa LLMChain sa pamamagitan ng LangChain framework, i-install lang ang mga module upang i-set up ang kapaligiran upang makuha ang mga dependency mula sa mga module. Pagkatapos nito, i-import lamang ang mga aklatan mula sa LangChain upang magamit ang memorya ng buffer para sa pag-iimbak ng nakaraang pag-uusap. Ang user ay maaari ding magdagdag ng memory sa chat model sa pamamagitan ng pagbuo ng LLMChain at pagkatapos ay pagsubok sa chain sa pamamagitan ng pagbibigay ng input. Ang gabay na ito ay nagpapaliwanag sa proseso ng paggamit ng memorya sa LLMChain sa pamamagitan ng LangChain.