ভাবুন তো যদি এমন একটা টুল থাকত, যেটা আপনার AI আইডিয়াকে কয়েক লাইনের কোডেই ইম্পিমেন্ট করে দিতে পারে?
ঠিক সেই জাদুই করছে LangChain!
আজকের এই ব্লগে আমরা জানব, LangChain আসলে কী, এটা কেন এত জনপ্রিয়, আর কীভাবে এটা আপনার নিজের প্রোজেক্টে ম্যাজিক আনতে পারে।
তো চলুন, LangChain-এর এই দুনিয়ায় একটু মজার ভ্রমণে বেরিয়ে পড়ি!
LangChain: AI ডেভেলপারদের নতুন ম্যাজিক টুল
ভাবুন তো কয়েক লাইনের কোড লিখেই যদি আপনি এমন একটা AI অ্যাপ বানাতে পারতেন, যেটা মানুষের মতো কথা বলে, উত্তর দেয়, এমনকি সিদ্ধান্তও নেয়?
শুনতে অবিশ্বাস্য লাগছে, তাই না? ঠিক এই কাজটাই সহজ করে দিচ্ছে LangChain!

LangChain হলো একটি open-source orchestration framework, যা Large Language Model (LLM) ব্যবহার করে অ্যাপ্লিকেশন তৈরি করা অনেক সহজ করে দেয়।
Python এবং JavaScript – দুই ল্যাঙ্গুয়েজ এই এটি ব্যবহার করা যায়।
এর টুলস আর API গুলো এমনভাবে ডিজাইন করা হয়েছে যেন ডেভেলপাররা খুব অল্প কোডেই চ্যাটবট, AI এজেন্ট, বা LLM-চালিত অ্যাপ্লিকেশন তৈরি করতে পারেন।
LangChain যেন একধরনের মিডেল ব্রিজ – যেখানে আপনি যেকোনো LLM (যেমন OpenAI, Anthropic, বা IBM Watsonx) যুক্ত করে এক জায়গা থেকেই আপনার পুরো প্রজেক্ট বানানো ও কনট্রোল করতে পারেন।
এর সবচেয়ে বড় সুবিধা হলো আপনি চাইলে একই প্রোজেক্টে একাধিক মডেল একসঙ্গে ব্যবহার করতে পারবেন।
যেমন, একটি মডেল ইউজার এর প্রশ্ন বুঝবে, আরেকটি মডেল তার উত্তর তৈরি করবে – কোনো কোড বারবার লেখার ঝামেলা ছাড়াই!
LangChain তৈরি করেন Harrison Chase ২০২২ সালের অক্টোবরে, এবং অবিশ্বাস্য গতিতে এটি জনপ্রিয়তা পায়।
মাত্র কয়েক মাসের মধ্যে, ২০২৩ সালের জুনে, এটি GitHub-এর সবচেয়ে দ্রুত ওপেন সোর্স প্রোজেক্ট হিসেবে জায়গা করে নেয়।
OpenAI-এর ChatGPT প্রকাশের পর LangChain মূলত সেই ঢেউয়ে ভেসেই Generative AI (GenAI) কে আরও সহজলভ্য করে তোলে – বিশেষ করে নতুন স্টার্টআপ ও AI উৎসাহীদের জন্য।
আজকের দিনে LangChain শুধু একটি টুল নয় – এটি যেন AI অটোমেশনের মেইন পাওয়ার।
চ্যাটবট, ইন্টেলিজেন্ট সার্চ, প্রশ্নোত্তর সিস্টেম, সারাংশ তৈরি, এমনকি রোবোটিক প্রসেস অটোমেশন (RPA) – সব ক্ষেত্রেই LangChain তার দাপট দেখাচ্ছে।
LLM ইন্টিগ্রেশন: শুধু মডেল নয়, সম্পূর্ণ এক টিমওয়ার্ক
অনেকে ভাবে – LLM মানেই অ্যাপ্লিকেশন। কিন্তু আসল সত্যি হলো, LLM (Large Language Model) আসলে একা কিছুই না!
এটা একধরনের pre-trained statistical model, যেটা কাজ করতে পারে তখনই, যখন সেটাকে কোনো অ্যাপ্লিকেশনের সঙ্গে বা নির্দিষ্ট ডেটা সোর্সের সাথে ইন্টিগ্রেট করা হয়।
একটা সহজ উদাহরণ ধরা যাকঃ
ChatGPT নিজে কোনো LLM নয়। বরং এটা একধরনের চ্যাটবট অ্যাপ্লিকেশন, যেটা GPT-3.5 বা GPT-4 মডেল ব্যবহার করে।
GPT মডেল মূলত ইউজারদের ইনপুট বোঝে এবং উত্তর তৈরি করে,
কিন্তু অ্যাপ্লিকেশনই পুরো ইউজার জার্নিকে সুন্দরভাবে উপস্থাপন করে – যেমন, আপনি কোথায় টাইপ করবেন, কীভাবে উত্তর দেখা যাবে, আর কেমন UX ডিজাইন হবে।
এমনকি এন্টারপ্রাইজ পর্যায়েও, GPT মডেল শুধু ChatGPT-তেই সীমাবদ্ধ না,
Microsoft Bing Chat-ও GPT-4 ব্যবহার করে, কিন্তু তাদের নিজস্ব অ্যাপ্লিকেশন ইন্টারফেস ও ডিজাইন সিস্টেমের মাধ্যমে।
কেন LLM-এর বাইরের ডেটা দরকার?
যদিও LLM গুলো বিরাট ডেটাসেট দিয়ে ট্রেইন করা হয়, তবুও তারা সব জান্তা নয়!
তাদের জ্ঞান একটা নির্দিষ্ট সময় পর্যন্ত সীমাবদ্ধ – মানে, ট্রেইনিং শেষ হওয়ার পরের ঘটনা বা তথ্য তারা জানে না।
তাই যদি কোনো কাজের জন্য আপনাকে specific তথ্য দরকার হয় – যেমন, কোম্পানির ইন্টারনাল ডকুমেন্ট, টেকনিক্যাল ম্যানুয়াল, বা কোনো নির্দিষ্ট ইন্ডাস্ট্রির ডেটা তখন LLM কে বাইরের ডেটা সোর্সের সঙ্গে কানেক্ট করতে হয়।
এমনকি আপনি যদি চান আপনার মডেলটা রিয়েল-টাইম নিউজ বা বর্তমান ঘটনার তথ্য জানুক, তাহলেও সেটার জন্য বাইরের ডেটা বা API প্রয়োজন
সফটওয়্যার ও API ইন্টিগ্রেশন
ধরা যাক আপনি এমন একটা ভার্চুয়াল এজেন্ট বানাতে চান যেটা Slack, Notion, বা Google Calendar-এর মতো অ্যাপে কাজ করবে
তাহলে আপনার LLM কে সেই সফটওয়্যারের API-এর সাথে ইন্টিগ্রেশন করতেই হবে।
হ্যাঁ, চাইলে এই সব ইন্টিগ্রেশন ম্যানুয়ালি কোড লিখে করা সম্ভব, কিন্তু সত্যি বলতে এটা সময়সাপেক্ষ আর অনেক জটিল!
এখানেই LangChain ও IBM Watsonx-এর জাদু
এই জায়গাতেই আসে LangChain ও IBM watsonx এর মতো ফ্রেমওয়ার্ক।
এরা পুরো ইন্টিগ্রেশন প্রক্রিয়াটাকে অনেক সহজ, সাজানো, আর পরীক্ষাযোগ্য করে তোলে।
LangChain ব্যবহার করে আপনি একসাথে অনেক মডেল ব্যবহার করতে পারেন ।
একটা কাজের জন্য GPT, আরেকটার জন্য Claude বা IBM Granite, এমনকি তুলনামূলকভাবে কোনটা ভালো কাজ করছে, সেটাও দেখতে পারেন।
সবচেয়ে সুন্দর ব্যাপার হলো,
কোডে বড় পরিবর্তন না করেই আপনি নতুন মডেল প্লাগ ইন বা পরিবর্তন করতে পারবেন।
মানে, আজ GPT লাগবে, কাল LLaMA – কোনো ঝামেলা নেই!
LangChain কীভাবে কাজ করে?
LangChain মূলত একধরনের “AI toolkit”। যেখানে বড় ল্যাঙ্গুয়েজ মডেল (LLM) দিয়ে অ্যাপ বানানো যায় অনেক সহজে।
এটা কাজ করে abstraction নামের একটা ধারণার ওপর মানে Complex কোডকে সহজ করে একটা নির্দিষ্ট নামে প্যাক করা।
যেমন “π” দিয়ে আমরা অনেক বড় সংখ্যার জায়গায় একটা সিম্বল ব্যবহার করি।
LangChain ঠিক তেমনই Complex LLM কাজকে ছোট ছোট reusable কম্পোনেন্টে ভাগ করে দেয়, যেগুলো একত্রে চেইন আকারে যুক্ত হয়।
Language Model Importing:
LangChain-এ প্রায় সব LLM-ই ব্যবহার করা যায় যেমন OpenAI, Anthropic, IBM watsonx, বা Hugging Face-এর মডেলগুলো।
শুধু API key পেলেই মডেল ইম্পোর্ট করা যায়। চাইলে নিজের ট্রেইন করা মডেলও যুক্ত করা যায় CustomLLM ক্লাস দিয়ে।
Prompt Templates:
Prompt মানে হচ্ছে আপনি মডেলকে কীভাবে নির্দেশ দিচ্ছেন।
LangChain-এ PromptTemplate
ক্লাস দিয়ে আপনি প্রম্পটগুলো একবার বানিয়ে বারবার ব্যবহার করতে পারেন। এতে প্রম্পট লেখা সহজ হয়।
Chains:
LangChain নামের “Chain” অংশটাই আসলে মজার জায়গা!
একটা চেইনে আপনি প্রম্পট, মডেল আর অন্যান্য ফাংশন জুড়ে দিতে পারেন যেন একটা প্রক্রিয়ার আউটপুট পরের ধাপের ইনপুট হয়ে যায়।
Complete web development with Programming Hero
- ৫০০০+ জব প্লেসমেন্ট
- ৩ বেলা ডেডিকেটেড লাইভ সাপোর্ট
- ১০০% জব প্লেসমেন্ট সাপোর্ট
- ৮৫ টি মডিউল, ১২+ মাইলস্টোন
- ডেডিকেটেড হেল্প ডেস্ক ২৪/৭
যেমন LLMChain
দিয়ে আপনি একটি মডেল ও প্রম্পট যুক্ত করতে পারেন, আর SimpleSequentialChain
দিয়ে একাধিক ধাপে কাজ চালাতে পারেন।
LangChain-এ Indexes, Memory আর Tools
AI মডেলগুলো নিজের মধ্যে যত বড়ই হোক না কেন, সব তথ্য তো আর ওদের মস্তিষ্কে আগে থেকে থাকে না!
অনেক সময় দরকার হয় বাইরের ডেটা সোর্সে – যেমন অফিসের ডকুমেন্ট, ইমেইল, বা ওয়েব ডেটা অ্যাক্সেস করার। LangChain এই সব এক্সটারনাল ডেটা সোর্সকে একত্রে বলে “Indexes”।
Document Loaders
LangChain-এ এমন অনেক লোডার আছে যেগুলো দিয়ে আপনি Google Drive, Dropbox, YouTube, Notion, Figma, Airtable, বা MongoDB-এর মতো প্ল্যাটফর্ম থেকে ডেটা টেনে আনতে পারেন।
মানে, আপনি যেখানেই ডেটা রাখুন না কেন, LangChain সেটা নিয়ে কাজ করতে পারে!
Vector Databases
ডেটা দ্রুত খুঁজে বের করার জন্য LangChain ব্যবহার করে Vector Database যেখানে তথ্যগুলোকে সংখ্যায় (vector embedding) রূপান্তর করে সংরক্ষণ করা হয়।
এতে করে অনেক বড় ডেটাসেট থেকেও তথ্য খোঁজা হয় অনেক দ্রুত ও নির্ভুলভাবে।
LangChain এখন ২৫+ এম্বেডিং মেথড আর ৫০+ ভেক্টর ডেটাবেসের সাথে কাজ করতে পারে!
Text Splitters
বড় বড় টেক্সটকে ছোট ছোট অর্থবোধক অংশে ভাগ করতে LangChain-এর TextSplitter দারুণ কাজ দেয়। এতে পারফরম্যান্স বাড়ে আর প্রসেসিং সময় কমে যায়।
Retrieval (RAG System)
যখন LLM-কে বাইরের তথ্য দরকার হয়, তখন Retrieval Augmented Generation (RAG) সিস্টেম ব্যবহার হয়। এটা মূলত ডেটাবেস থেকে রিলেভেন্ট তথ্য টেনে এনে LLM-এর উত্তরকে আরও ইনফরমেটিভ করে।
LangChain-এ এমনকি Agentic RAG সিস্টেমও আছে যেখানে শুধু তথ্য আনা নয়, AI নিজের মতো করে টাস্কও করতে পারে (যেমন ইমেইল লেখা, হিসাব করা, ডেটা অ্যানালাইসিস ইত্যাদি)।
Memory
সাধারণভাবে LLM-দের কোনো memory থাকে না, মানে একবার conversation শেষ হলে সব ভুলে যায়।
LangChain এই সমস্যার সমাধান করেছে Memory ফিচার দিয়ে চাইলে আগের কথাগুলো পুরোপুরি, সংক্ষেপে, বা শুধু শেষ কয়েকটা এক্সচেঞ্জ পর্যন্ত সংরক্ষণ করা যায়।
Tools
LangChain জানে তার সীমাবদ্ধতা তাই সে নিজের ক্ষমতা বাড়াতে নানা টুলস ব্যবহার করে।
কিছু জনপ্রিয় টুল হলো:
- Wolfram Alpha – কঠিন গণিত আর ডেটা ভিজ্যুয়ালাইজেশনের জন্য
- Google Search – রিয়েল-টাইম তথ্যের জন্য
- OpenWeatherMap – আবহাওয়ার তথ্য আনতে
- Wikipedia – দ্রুত সাধারণ জ্ঞান পেতে
সব মিলিয়ে, LangChain এমন এক AI framework, যেটা শুধু ভাষা বোঝে না বাইরের দুনিয়ার সাথে যোগাযোগ করতেও পারে!
LangChain Agents – শুধু চ্যাটবট নয়, “AI Decision Maker”!
LangChain-এর সবচেয়ে শক্তিশালী ফিচারগুলোর মধ্যে একটি হলো Agents।
সাধারণ LLM শুধু প্রশ্নের উত্তর দিতে পারে, কিন্তু LangChain agent think, planing করতে, টুল ব্যবহার করতে এবং ধাপে ধাপে কাজ সম্পন্ন করতে পারে।
মোটকথা, একটিমাত্র টেক্সট রেসপন্স নয় বরং AI এখন “পরিকল্পনা-শক্তি” পেয়েছে!
LangChain আপনাকে সরাসরি একটি ready-made framework দেয়:
- টুল সিলেকশন লজিক বানাতে হবে না
- reasoning loops (যেমন ReAct agents) বানাতে হবে না
- prompt orchestration বা formatting নিয়ে ঝামেলা নেই
যদি আপনি IBM watsonx.ai মডেল ব্যবহার করতে চান, তাহলে মূল ক্লাসগুলো হলো:
langchain_ibm
– IBM integrationibm_watsonx_ai
– IBM Cloud & Cloud Pak for Data কানেকশনWatsonxLLM
– মডেলকে chain-এ যুক্ত করার জন্য wrapperAPIClient
– API credentials & endpoint পরিচালনা করেModelInference
– মডেল ইনস্ট্যান্ট করে invoke ও generate করতে দেয়ChatWatsonx
– multiple tools & chaining ব্যবহারের জন্য agent বানায়
কাজ করার ধরন:
invoke
– একবারে এক প্রম্পট পাঠায়generate
– একাধিক প্রম্পট পাঠায়- Tool call হলে, response-এ tool-এর নাম, ID, type দেখা যায়।
LangGraph – Multi-Agent Workflow তৈরি করুন
LangGraph হলো LangChain-এর open-source AI agent framework, যা বহু এজেন্টকে একসাথে কাজ করাতে সাহায্য করে।
এটি ব্যবহার করে আপনি agentic workflow বানাতে পারেন যেখানে একাধিক এজেন্ট একে অপরের সাথে collaborate ও specialize করে।
কীভাবে কাজ করে?
- Graph-based architecture ব্যবহার করে বিভিন্ন agent এবং component-এর সম্পর্ক মডেল করে
- Human-in-the-loop monitoring এবং API/tool integration দিয়ে workflow নিয়ন্ত্রণ করা যায়
- Chatbots, state graphs, agent-based systems — সব বানানো সম্ভব
MCP Integration:
langchain-mcp-adapters
লাইব্রেরি দিয়ে LangGraph agents external tools এবং data sources ব্যবহার করতে পারে। MCP (Model Context Protocol) নিশ্চিত করে, একাধিক LLM একই টুল বা ডেটা সোর্স নিরাপদে শেয়ার করতে পারে।
LangChain Agents + LangGraph = “AI যেটা শুধু কথা বলে না, পরিকল্পনা করে, কাজ করে, এবং শেখে।”
আপনি চাইলে একাধিক এজেন্ট, বিভিন্ন টুল, ও ডেটা সোর্স একসাথে ব্যবহার করে কমপ্লেক্স AI সিস্টেম বানাতে পারবেন!