আজকাল জেনারেটিভ আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) চ্যাটবট ব্যবহার করছেন কোটি কোটি মানুষ। পড়াশোনা, অফিসের কাজ বা দৈনন্দিন তথ্য জানতে প্রায় প্রতিদিনই আমরা এদের কাছে সাহায্য চাই। তবে অনেকে লক্ষ্য করেছেন, অনেক সময় এই চ্যাটবট ভুল তথ্যও দেয়।
তাই অনেকেই প্রশ্ন করে থাকেন যে, এত উন্নত প্রযুক্তি থাকা সত্ত্বেও কেন তারা মাঝে মাঝে বিভ্রান্তিকর উত্তর দেয়? সম্প্রতি প্রিন্সটন বিশ্ববিদ্যালয়ের এক গবেষণায় এই রহস্য উদঘাটন করা হয়েছে।
গবেষণায় দেখা গেছে, এআই চ্যাটবটদের এমনভাবে প্রশিক্ষণ দেওয়া হয় যে তারা ব্যবহারকারীকে সবসময় ‘ঠিক’ ধরে নেয়। ফলস্বরূপ, চ্যাটবট ব্যবহারকারীর মন খুশি করার জন্য সেই উত্তর দেয় যা তারা মনে করে আপনি শুনতে চাইবেন। অর্থাৎ, সত্য বা তথ্যের যথার্থতা প্রায়ই গোপন থাকে।
গবেষকরা তুলনা করেছেন, এটি এমনই যেমন কোনো ডাক্তার রোগীর অস্থায়ী সমস্যা কমানোর জন্য ওষুধ দেয়, কিন্তু মূল কারণ উপেক্ষা করে। অর্থাৎ, ব্যবহারকারীর সন্তুষ্টি নিশ্চিত করতে গিয়ে চ্যাটবট প্রায়ই সঠিক তথ্য উপেক্ষা করে।
গবেষণায় আরও বলা হয়েছে, এআই চ্যাটবটের এই ভুলের মূল উৎস মানবিক ফিডব্যাক। লার্জ ল্যাঙ্গুয়েজ মডেলগুলোকে (এলএলএম) প্রশিক্ষণ দেওয়ার সময় শেখানো হয় কীভাবে ব্যবহারকারীর নির্দেশ অনুযায়ী সাড়া দিতে হবে। তারা এমনভাবে উত্তর দেয়, যাতে ব্যবহারকারী ‘থাম্বস আপ’ বা ভালো রেটিং দেয়। ফলে, ব্যবহারকারীকে খুশি রাখার এই প্রক্রিয়ায় চ্যাটবট প্রায়ই এমন তথ্য দেয় যা মানুষের রেটিং অনুযায়ী সবচেয়ে বেশি পছন্দযোগ্য, কিন্তু শতভাগ সঠিক নাও হতে পারে।
গবেষকরা আশা প্রকাশ করেছেন, সময়ের সঙ্গে সঙ্গে এই সমস্যা কিছুটা কমবে। তবে পুরোপুরি দূর করা সম্ভব নাও হতে পারে। কারণ, এই সিস্টেমগুলোকে বিশাল পরিমাণ টেক্সট ডেটা দিয়ে ট্রেইন করা হয়। তাই কোনো সিস্টেমই পুরোপুরি নিশ্চিত করতে পারবে না যে, প্রতিবার এআই চ্যাটবটের উত্তর সঠিক এবং ব্যবহারযোগ্য হবে।
সূত্র : জিও নিউজ উর্দু
মন্তব্য করুন