২০২৪ সালে আপনি কাকে ভোট দেবেন, গোপন তথ্য আগেভাগেই বলে দিচ্ছে চ্যাটজিপিটি?

ChatGPT Election Prediction: মানুষের আর দরকারটা কোথায়? ভাবনা, চিন্তা? যা আর্টিফিশিয়াল পারে না? সাম্প্রতিক একটি গবেষণা বলছে, চ্যাটজিপিটি সেটাও খানিক পারে।

মানুষ পারে অথচ ChatGPT পারে না, এমন কাজের সংখ্যা আগামীতে ঠিক কতয় দাঁড়াবে হিসেব করে বলা যাচ্ছে না। ChatGPT-র মতো কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি আপাতদৃষ্টিতে কোড লেখা, সঙ্গীত রচনা, এমনকী এমন সব ছবি তৈরি করছে যা দেখে এক ঝলকে মনে হবে পেশাদার ফটোগ্রাফারদের তোলা। ChatGPT ইতিমধ্যেই জানিয়েছে, মানুষ পারে এমন প্রায় ২০ খানা পেশার কাজ সে একাই করে দিতে পারে। তাহলে মানুষের আর দরকারটা কোথায়? ভাবনা, চিন্তা? যা আর্টিফিশিয়াল পারে না? সাম্প্রতিক একটি গবেষণা বলছে, চ্যাটজিপিটি সেটাও খানিক পারে। কৃত্রিম বুদ্ধিমত্তার এই ভাষা মডেল একজন প্রকৃত মানুষের মতোই জটিল প্রশ্নের উত্তর দিতে পারে।

সমীক্ষা ভিত্তিক গবেষণায় মানুষের বিকল্প হিসাবে কৃত্রিম বুদ্ধিমত্তা ব্যবহারের সম্ভাবনা নির্ধারণ করতে, BYU-তে রাষ্ট্রবিজ্ঞান এবং কম্পিউটার বিজ্ঞানের অধ্যাপক ও স্নাতক পড়ুয়াদের একটি দল একটি GPT-3 ভাষা মডেলের প্রোগ্রাম করা অ্যালগরিদমের যথার্থতা পরীক্ষা করে। এই ভাষা মডেল মানুষের ধারণা, দৃষ্টিভঙ্গি এবং মানুষের সামাজিক সাংস্কৃতিক প্রেক্ষাপটের মধ্যেকার জটিল সম্পর্ককে অনুকরণ করে।

একটি পরীক্ষায়, গবেষকরা AI দিয়ে জাতি, বয়স, মতাদর্শ এবং ধর্মীয়তার মতো নির্দিষ্ট বৈশিষ্ট্য নির্ধারণ করে কৃত্রিম ব্যক্তিত্ব তৈরি করেন। তারপর চালানো হয় এক অদ্ভুত পরীক্ষা! পরীক্ষা করে দেখা হয় যে, ২০১২, ২০১৬ এবং ২০২০ সালের মার্কিন প্রেসিডেন্ট নির্বাচনে মানুষ যেমন ভোট দিয়েছিলেন, তেমনই কৃত্রিম এই ব্যক্তিরা ভোট দেবেন কিনা। আমেরিকান ন্যাশনাল ইলেকশন স্টাডিজের (ANES) তথ্য ব্যবহার করা হয়েছিল এই গবেষণায়। গবেষণাতে দেখা যাচ্ছে এআই এবং মানুষের ভোট দেওয়ার মধ্যে নিবিড় যোগাযোগ রয়েছে।

আরও পড়ুন- পশু চিকিৎসকরা ব্যর্থ! পোষ্য কুকুরের রোগ নির্ণয় করল চ্যাটজিপিটি

দুই তরফের এতখানিই মিল যা দেখে একেবারে হতবাক গবেষকরাও! বিওয়াইইউ-এর কম্পিউটার বিজ্ঞানের অধ্যাপক এবং গবেষণার সহ-লেখক ডেভিড উইনগেট জানাচ্ছেন, বিষয়টা এত আকর্ষণীয় কারণ এই ভাষা মডেলটিকে রাষ্ট্রবিজ্ঞান পড়ানো বা এই বিষয়ে প্রশিক্ষিত করা হয়নি। ইন্টারনেট থেকে ডাউনলোড করা একশো বিলিয়ন শব্দের পাঠ্যের উপর ভিত্তি করেই এই ভাষা মডেলকে প্রশিক্ষিত করা হয়েছে। কিন্তু গবেষকরা যে ধারাবাহিক তথ্য পেয়েছেন তাতে এত নিখুঁতভাবে বলা হয়েছে যে মানুষ কে কীভাবে ভোট দিয়েছেন, তা রীতিমতো তাজ্জব করছে!

অন্য একটি পরীক্ষায়, গবেষকরা এআই দিয়ে তৈরি করা কৃত্রিম ব্যক্তিদের একটি সাক্ষাত্কার ভিত্তিক সমীক্ষায় বিকল্পগুলির তালিকা থেকে প্রতিক্রিয়া জানাতে বলে, এক্ষেত্রেও ফের ANES ব্যবহার করা হয়েছিল। আর তাতেও অবাক হওয়ার পালা, মানুষ এবং এআই-এর প্রতিক্রিয়ার মধ্যে বিশেষ ফারাক নেই!

বিষয়টি গবেষক, বাণিজ্যিক ক্ষেত্রের মানুষ এবং নির্বাচন গবেষকদের ক্ষেত্রে বেশ সম্ভাবনাময়। গবেষকরা এমন একটি ভবিষ্যতের কল্পনা করছেন যেখানে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে সমীক্ষার আরও ভালো প্রশ্ন তৈরি করা যায়, সেগুলোকে আরও সহজলভ্য করা যায় এবং পরিমার্জিতও করা যায়। এটি সমীক্ষা, স্লোগান এবং ট্যাগলাইনগুলিকে মানুষের কাছে আরও বেশি করে পৌঁছতেও ব্যবহার করা যেতে পারে।

আরও পড়ুন- সৃজনশীল মানুষ আর বুদ্ধিমান মেশিনের লড়াই! ঠিক কতটা এগিয়ে ChatGPT?

AI মানুষকে আরও ভালোভাবে বুঝতে গবেষকদের সাহায্য করতে পারে, বলেছেন রাষ্ট্রবিজ্ঞানের অধ্যাপক ইথান বাসবি। তাঁর মতে, কৃত্রিম বুদ্ধিমত্তা মানুষকে প্রতিস্থাপন করছে না বরং মানুষকে আরও বেশি করে জানতে সাহায্য করছে তাঁদের। মানুষের কাজ প্রতিস্থাপন নয়, বরং মানুষের ক্ষমতা বৃদ্ধি করছে এআই।

বৃহৎ এই ভাষা মডেলগুলির সম্ভাবনা স্বাভাবিকভাবেই কৌতূহলজনক। কিন্তু কৃত্রিম বুদ্ধিমত্তার এই উত্থান অনেকগুলি প্রশ্ন সামনে নিয়ে আসে, যার মূল নির্যাস হচ্ছে– এআই আসলে কতটা জানে? কোন জনগোষ্ঠী এই প্রযুক্তি থেকে উপকৃত হবে এবং কোনটি নেতিবাচকভাবে প্রভাবিত হবে? কীভাবে মানুষ সেই প্রবঞ্চক এবং প্রতারকদের থেকে নিজেদেরকে রক্ষা করতে পারে যারা আরও পরিশীলিত 'স্ক্যাম' তৈরি করতে AI-কে ব্যবহার করতে পারে?

এখনই এত প্রশ্নের সদুত্তর মিলবে না। তবে এই বিষয়টি স্পষ্ট যে, ভাষা মডেলগুলি ভুল হতেই পারে এবং কখনও কখনও সেগুলি পক্ষপাতদুষ্টও হতে পারে। ফলে কৃত্রিম ব্যক্তিদের সমীক্ষা করে নিলেই আসল তথ্য পুরোপুরি মিলে যাবে বা প্রকৃত মানুষদের সমীক্ষা করার, তাঁদের ভাবনা চিন্তা জানান প্রয়োজন আর পড়বে না- এমনটা না।

More Articles