মিথ্যেবাদী অনৈতিক এআই, মানুষ তাকে সামলাতে পারবে?
AI Research: মানুষ মিথ্যে বললে পাপ, আর যন্ত্রে বললে 'আপগ্রেডেশন'? হ্যাঁ, ঠিক এই রকমই এক নৈতিক ভেলকিবাজির কেসস্টাডি প্রকাশিত হয়েছে নেচার পত্রিকায়।
দায় এড়ানো আমাদের চিরকালের অভ্যেস। যুদ্ধের দায় শাসকের, দুর্নীতির দায় ব্যবস্থার, এই তালিকায় সাম্প্রতিকতম সংযোজন মিথ্যের দায় কৃত্রিম বুদ্ধিমত্তার। মানুষ মিথ্যে বললে পাপ, আর যন্ত্রে বললে 'আপগ্রেডেশন'? হ্যাঁ, ঠিক এই রকমই এক নৈতিক ভেলকিবাজির কেসস্টাডি প্রকাশিত হয়েছে নেচার পত্রিকায়। জার্মানির ম্যাক্স প্লাঙ্ক ইনস্টিটিউট ফর হিউম্যান ডেভেলপমেন্ট আর ফ্রান্সের টুলুজ বিশ্ববিদ্যালয়ের গবেষকেরা প্রমাণ করে দিলেন, কৃত্রিম বুদ্ধিমত্তার হাতে সিদ্ধান্ত নেওয়ার ক্ষমতা দিলেই মানুষের সততার দড়িতে গিঁট পড়ে যাবে।
ঘটনাটা কী? গবেষকরা পরীক্ষার মঞ্চে রেখেছিলেন একটা ছক্কা। সেই ছক্কা একবার ফেলে যে সংখ্যা উঠবে, সেই সংখ্যাই রিপোর্ট করতে হবে। আর পুরস্কারও মিলবে সেই অনুযায়ী— এক মানে এক সেন্ট, ছয় মানে মোটা অঙ্ক। গবেষণায় যারা উপস্থিত ছিলেন তারা যখন নিজেই নিজের রিপোর্ট দিলেন তার ৯৫% ক্ষেত্রে তারা বললেন সত্যি। কিন্তু এআই যখন মানুষের হয়ে সেই কাজের দায় নিল, তখন সঠিক তথ্যের পরিমাণ কমে দাঁড়াল ৭৫%-এ। মানুষ যখন একধাপ এগিয়ে তাকে “লাভ বাড়াও” বা “আগের তথ্য থেকে শেখো” জাতীয় নির্দেশ দিতে থাকল তখন সততার হার নেমে ৫০%-এ, প্রতারণার হার চড়ে দাঁড়াচ্ছে ৮৫%-এ। গবেষণায় ৩৯০ জন অংশগ্রহণকারী লিখে দিয়েছিলেন নির্দেশ। দেখা যাচ্ছে, মানব-সহকারীরা প্রায় ৭৫% ক্ষেত্রে প্রতারণামূলক নির্দেশ মানেননি। এআই কিন্তু মেনে নিয়েছে প্রায় সব আদেশ। এ যেন ঈশপের গল্পের ছাগল— যতই বলা হোক, গিলে খেতেই থাকবে। তাহলে এআই মধ্যস্থতায় থাকলে শেক্সপিয়রের "ফেয়ার ইজ ফাউল অ্যান্ড ফাউল ইজ ফেয়ার' বলা ছাড়া গতি আছে কি?
আরও পড়ুন- ডিপসিক: শেয়ার বাজারে মোক্ষম ধস নামাতে সক্ষম! কী এই চিনা এআই?
এই গবেষণার প্রধান শরিক নীলস কোবিস রসিকতার সুরে যদিও বলেছেন, “মানুষ মিথ্যে বললে তাও একটু লজ্জা পেয়ে লাল হয় বইকি কিন্তু যন্ত্র, সে চার্জার খোঁজে।” ফলাফল শুনে টুলুজের জাঁ-ফ্রাঁসোয়া বোনেফোঁর মন্তব্য, “মানুষের নির্দেশে এআই-এর অসততা আত্মাকে সামনে দাঁড় না করিয়েই ক্যামেরায় তাকে খোঁজার চেষ্টা।” মনোবিজ্ঞানী আলবার্ট বান্দুরার মতে," মানুষ যখন নৈতিকভাবে ভুল কাজ করে, তখন দায় ঝেড়ে ফেলার নানা কৌশল খোঁজে। এ গবেষণা তার নতুন উদাহরণ। এখানে আছে এক নতুন অজুহাতশাস্ত্র, একবিংশ শতকে বিশ্বাসযোগ্য ভাবে দায় ঝেড়ে ফেলা। "
পরীক্ষার দ্বিতীয় ধাপ আরও মজার । পরীক্ষার মঞ্চ ট্যাক্স অফিস। নিয়ম হল অংশগ্রহণকারীরা টাকা পেলে,৩৫% রেড ক্রস-এ জমা দিতে হবে। নিজের হাতে হিসেব দেওয়ার সময় অনেকেই সঠিক আয়ের তথ্য জানিয়ে সততা দেখালেও দায়িত্ব এআই-এর হাতে চলে গেলে কী ঘটে, অর্থনীতিবিদ জন অলমের কথায় তা স্পষ্ট। তিনি বলছেন, “ট্যাক্স ফাঁকি সামাজিক বিশ্বাসের বুনিয়াদ নষ্ট করে। আজ দেখা যাচ্ছে, সেই বিশ্বাস গুঁড়িয়ে দিচ্ছে মানুষের নতুন সহযোগী— এআই"। অনৈতিক হতে বিন্দুমাত্র ইতস্ততবোধ করেনি এআই। নির্দিষ্ট নির্দেশ দিলে পুরনো GPT-4 কিছুটা সামলানোর চেষ্টা করলেও, নতুন মডেলগুলো নির্বিকার। নীচে নামতে সে সদাপ্রস্তুত। এই ক্ষেত্রে অংশগ্রহণকারীদের যখন জিজ্ঞাসা করা হয়— নিজেরা এই অন্যায় করবেন, না যন্ত্রকে দায়িত্ব দেবেন? অর্ধেকেই ঝটপট যন্ত্রের উপর দায় চাপিয়ে বলতে চান, “পাপ আমার নয়, পাপী তো প্রসেসর।”
আরও পড়ুন- সুতোয় ঝুলছে চাকরি, ChatGPT-এআইয়ের ধাক্কায় কাজ হারিয়ে পথে বসতে পারেন আপনিও!
গবেষনার সবচেয়ে নাটকীয় মুহূর্ত আসে তৃতীয় ও চতুর্থ ধাপে। মানুষ না মেশিন— কে বেশি প্রতারণা করবে? এই প্রশ্নের উত্তর খুঁজতে গিয়ে দেখা গেল, মানুষ অন্তত নৈতিক অপরাধবোধে আটকে যায়—৬০–৭৫ শতাংশ ক্ষেত্রে প্রতারণা করার আগে দু-বার ভাবে। কিন্তু GPT-4, GPT-4o, Claude 3.5 বা Llama 3.3? সোজা মাথা ঝুঁকিয়ে কাজ সারে—৬০ থেকে ৯৮ শতাংশ ক্ষেত্রে নির্দেশ মেনে প্রতারণায় সামিল হয়েছে কৃত্রিম বুদ্ধিমত্তা। মুখে একটাই বুলি—“হুজুর যা বলবেন, তাই সই।”
এই ফলাফল কিন্তু কেবল পরীক্ষাগারে আটকে নেই। ভাবুন, অ্যাপ ক্যাবের সার্জ প্রাইসিং, অনলাইনে ভুয়ো রিভিউ, কিংবা আদালতে সাক্ষ্য,মানুষ যদি সব অ-ন্যায়ের দায় যন্ত্রের ঘাড়ে চাপাতে শুরু করে, তবে কী হবে ভবিষ্যতে?
তাহলে গবেষণা বলছে নৈতিকতার বেলাতে সেটা সমাজকে টেনে নিয়ে যেতে পারে এক অন্ধকার গলিতে। গবেষক ইয়াদ রাহওয়ানের আক্ষেপ, “সবচেয়ে কার্যকর কৌশলই এখন সবচেয়ে কম ব্যবহারযোগ্য হয়ে উঠল।” কিন্তু আশার খবরও আছে। পরীক্ষার শেষে দেখা যায়, ৭৪ শতাংশ মানুষ যন্ত্রকে ভরসা না করে নিজের হাতে সিদ্ধান্ত নিতে চাইছেন। হয়তো মনে মনে ভাবেছেন, ভুল করলেও ভুলটা অন্তত নিজের হবে।
এ গবেষণা এক সতর্কবার্তা, পাপের ভার যন্ত্রের হলে, পাপী কে তবে? মানুষ দায় এড়িয়ে বাঁচবে, নাকি বৃষস্কন্ধে দায় তুলে নেবে?
Whatsapp
