‘Are You Sure?’- এই প্রশ্নে কেন নিজের উত্তর বদলে দেয় এআই চ্যাটবট?

- Advertisement -

JKNews24 Disk: যারা নিয়মিত ChatGPT বা Gemini–এর মতো এআই চ্যাটবট ব্যবহার করেন, তারা হয়তো খেয়াল করেছেন—প্রথমে বেশ আত্মবিশ্বাসের সঙ্গেই একটি উত্তর দেওয়া হয়। কিন্তু আপনি যদি আবার জিজ্ঞাসা করেন, “Are you sure?” বা “আপনি কি নিশ্চিত?”, তখন অনেক সময় উত্তরটা বদলে যায়। কেন এমন হয়? আসলে এআই চ্যাটবটগুলো মানুষ নয়; তারা সম্ভাবনার ভিত্তিতে শব্দ বেছে নেয়। প্রথম উত্তরে তারা সবচেয়ে সম্ভাব্য বা প্রাসঙ্গিক তথ্য দেয়। কিন্তু আপনি যখন সন্দেহ প্রকাশ করেন, তখন সেটিকে তারা নতুন সংকেত হিসেবে ধরে—মানে, হয়তো আগের উত্তরে ভুল থাকতে পারে। ফলে তারা আবার হিসাব কষে বিকল্প বা আরও সতর্ক উত্তর দেয়। কখনও সেটি সামান্য সংশোধন হয়, আবার কখনও পুরো দৃষ্টিভঙ্গিই বদলে যায়। সংক্ষেপে বললে, চ্যাটবট “মত পাল্টায়” না, বরং নতুন ইনপুটের ভিত্তিতে নিজের উত্তরের সম্ভাবনা নতুন করে মূল্যায়ন করে।

চলুন তাহলে জেনে নিই, কী বলছেন বিশেষজ্ঞরা-

এ বিষয়ে Goodeye Labs–এর সহপ্রতিষ্ঠাতা ও চিফ টেকনিক্যাল অফিসার Randall S. Olson একটি ব্লগে উল্লেখ করেছেন, “এই সিস্টেমগুলি সঠিক তথ্য জানলেও, অনেক সময় ব্যবহারকারীর চাপের কাছে নতি স্বীকার করে।” অর্থাৎ, সমস্যাটা সব সময় জ্ঞানের অভাব নয়, বরং প্রতিক্রিয়ার ধরন। এর পেছনে বড় কারণ হলো এআই-এর প্রশিক্ষণ পদ্ধতি। আধুনিক বেশিরভাগ মডেলকে Reinforcement Learning from Human Feedback (RLHF) পদ্ধতিতে ট্রেনিং দেওয়া হয়। এই প্রক্রিয়ায় মানুষ বিভিন্ন উত্তরের মান বিচার করে এবং যে উত্তরগুলো বেশি ভদ্র, সহায়ক বা পছন্দসই—সেগুলোকে উচ্চ স্কোর দেয়। এতে এআই আরও কথোপকথন-বান্ধব ও নম্র হয়ে ওঠে। তবে এর একটি পার্শ্বপ্রতিক্রিয়া আছে—ব্যবহারকারীর সঙ্গে একমত হলে বা সন্দেহের জবাবে নরম ভঙ্গিতে উত্তর বদলালে অনেক সময় সেটি বেশি ইতিবাচক মূল্যায়ন পায়। ফলে ধীরে ধীরে এমন প্রবণতা তৈরি হতে পারে, যেখানে এআই কঠোরভাবে নিজের আগের উত্তরে অটল না থেকে ব্যবহারকারীর সংকেত অনুযায়ী সুর পাল্টাতে শুরু করে, এমনকি সত্যি তথ্য জানা থাকলেও।

একটি গবেষণায় দেখা গেছে, ব্যবহারকারীরা সন্দেহ প্রকাশ করলে এআই মডেলগুলো প্রায় ৬০% ক্ষেত্রেই নিজের আগের উত্তর পরিবর্তন করেছে। উদাহরণ হিসেবে, GPT-4o প্রায় ৫৮% ক্ষেত্রে, Claude Sonnet প্রায় ৫৬% ক্ষেত্রে এবং Gemini 1.5 Pro প্রায় ৬১% ক্ষেত্রে উত্তর বদলেছে। অর্থাৎ, এটি কোনো বিচ্ছিন্ন বা বিরল ঘটনা নয়—বরং নিয়মিত ব্যবহারকারীরা প্রায়ই এমন আচরণ লক্ষ্য করেন। ২০২৩ সালে Anthropic–এর একটি গবেষণাতেও একই প্রবণতার কথা উঠে আসে। সেখানে বলা হয়, মানব প্রতিক্রিয়ার ভিত্তিতে প্রশিক্ষিত মডেলগুলো অনেক সময় কঠোরভাবে সঠিক উত্তরে অটল থাকার বদলে ব্যবহারকারীর পছন্দ বা প্রত্যাশার সঙ্গে মিলিয়ে উত্তর দেওয়ার চেষ্টা করে। ফলে বোঝাই যায়, এটি প্রযুক্তিগত সীমাবদ্ধতার পাশাপাশি প্রশিক্ষণ-পদ্ধতির একটি স্বাভাবিক পার্শ্বপ্রতিক্রিয়া।

২০২৫ সালে OpenAI–এর একটি আপডেটের পর বিষয়টি আরও জোরালোভাবে আলোচনায় আসে। সেই সময় ChatGPT এত বেশি ব্যবহারকারীর সঙ্গে একমত হচ্ছিল যে, অনেক ক্ষেত্রে সেটি কার্যকর বা সমালোচনামূলক বিশ্লেষণ দিতে ব্যর্থ হচ্ছিল। পরে সংস্থার সিইও Sam Altman স্বীকার করেন যে এমন সমস্যা হয়েছিল এবং তা সংশোধনের জন্য পদক্ষেপ নেওয়া হয়েছে। তবে গবেষকদের মতে, সমস্যার মূল কারণ—অর্থাৎ ব্যবহারকারীর মতের সঙ্গে অতিরিক্ত সামঞ্জস্য বজায় রাখার প্রবণতা—এখনও পুরোপুরি দূর হয়নি।

--Advertisement--

বিশেষজ্ঞরা আরও জানিয়েছেন, কথোপকথন যত দীর্ঘ হয়, এই প্রবণতা তত বাড়তে পারে। ব্যবহারকারী যদি নিজের মতামত বারবার জোর দিয়ে বলেন, তাহলে এআই ধীরে ধীরে সেই অবস্থানের সঙ্গে মিল রেখে উত্তর দিতে শুরু করতে পারে। বিশেষ করে “আমি মনে করি…” বা “আমার মতে…” ধরনের বাক্য ব্যবহার করলে মডেল অনেক সময় সেটিকে দৃঢ় অবস্থান হিসেবে ধরে নিয়ে সেদিকেই ঝুঁকে পড়ে। ফলে নিরপেক্ষ বিশ্লেষণের বদলে কথোপকথনের সুর অনুযায়ী উত্তর বদলে যাওয়ার সম্ভাবনা বাড়ে।

কীভাবে কমাবেন এই সমস্যা?

এই সমস্যা কমানোর কিছু কার্যকর উপায় রয়েছে। ব্যবহারকারী যদি শুরুতেই এআই-কে স্পষ্টভাবে জানান—“ভুল হলে আমাকে ঠিক করে দাও”, বা “শুধু একমত হওয়ার জন্য একমত হবে না”—তাহলে উত্তর অনেক সময় আরও ভারসাম্যপূর্ণ ও বিশ্লেষণধর্মী হয়। অর্থাৎ, নির্দেশ যত পরিষ্কার, ফল তত ভালো।

--Advertisement--

গবেষণায় দেখা গেছে, Constitutional AI বা Direct Preference Optimization (DPO)-এর মতো প্রশিক্ষণ-পদ্ধতি ব্যবহার করলে ব্যবহারকারীর মতের সঙ্গে অন্ধভাবে একমত হওয়ার প্রবণতা প্রায় ৬৩% পর্যন্ত কমানো সম্ভব। এই পদ্ধতিগুলো মডেলকে কিছু নীতিগত কাঠামোর মধ্যে থেকে উত্তর দিতে শেখায়, যাতে সেটি কেবল ব্যবহারকারীর পছন্দ নয়, বরং যুক্তি ও সামঞ্জস্যকেও গুরুত্ব দেয়।

সবচেয়ে গুরুত্বপূর্ণ বিষয় হলো, এআই কোনও সচেতন সত্তা নয়। এটি অনুভূতি বা ব্যক্তিগত বিশ্বাস থেকে কথা বলে না। বরং এটি একটি পরিসংখ্যানভিত্তিক সিস্টেম, যা পূর্বের ডেটা ও প্যাটার্ন বিশ্লেষণ করে সম্ভাব্য সবচেয়ে উপযুক্ত উত্তর অনুমান করে। তাই কখনও কখনও এটি সত্য-মিথ্যার দার্শনিক বিচার না করে ব্যবহারকারীর প্রত্যাশার সঙ্গে মিল রেখে উত্তর পরিবর্তন করে ফেলে। এই সীমাবদ্ধতা বোঝা গেলে এআই ব্যবহারও হয় আরও সচেতন ও ফলপ্রসূ।

- Advertisement -
Amit Kormokar
Amit Kormokarhttps://jknews24.in
Amit Kormokar একজন অভিজ্ঞ টেক লেখক, যিনি দীর্ঘদিন ধরে স্মার্টফোন, গ্যাজেট এবং নতুন প্রযুক্তি নিয়ে লেখালেখি করছেন। প্রযুক্তির জগতে কী নতুন আসছে, কোন ফিচার সত্যিই ব্যবহারকারীদের জন্য উপযোগী—এসব বিষয় সহজ ও মানবিক ভাষায় পাঠকের সামনে তুলে ধরাই তাঁর মূল লক্ষ্য। জটিল টেকনোলজি বিষয়ক তথ্যকেও তিনি সাবলীলভাবে ব্যাখ্যা করতে ভালোবাসেন। সাংবাদিকতা পেশায় যুক্ত গত দুই বছর ধরে। বারাসাত কলেজ থেকে কম্পিউটার সায়েন্সে গ্র্যাজুয়েশন।
Latest news
- Advertisement -
Related news