ভাইরাল ভিডিওর নারী রশ্মিকা মান্দানা নন, কী ভাবে চিনবেন ডিপফেক?

Rashmika Mandanna Deepfake Controversy: ওই ভিডিওটি জরা প্যাটেল নামে অন্য এক জনের। যার সঙ্গে রশ্মিকার দূর দূরতক কোনও মিল নেই। গোটা শরীরটি তাঁর, মুখটির জায়গায় বসিয়ে দেওয়া হয়েছে শুধু রশ্মিকার মুখ।

আর্টিফিশিয়াল ইন্টেলিজেন্স বা কৃত্রিম বুদ্ধিমত্তা। কী না পারে এই কৃত্রিম বুদ্ধিমত্তা! মানুষের যে কোনও প্রকার সমস্যার হাল খুঁজে বের করে এনে দিতে পারে। কঠিন অঙ্ক হোক বা জটিল কোড, মুহূর্তে সমাধান বাতলে দিতে পারে। চাইলে আপনার জন্য লিখে দিতে পারে কবিতা, উপন্যাস থেকে শুরু করে গবেষণাপত্রও। এআই দিয়ে মুহুর্তে বানিয়ে ফেলা যাচ্ছে ছবি। এআইয়ের দৌলতে শাহরুখ খানকে লিওনার্দো ডি-ক্যাপ্রিও বানিয়ে তুলতে সময় লাগে না। কিন্তু এই দাপটের পার্শ্বপ্রতিক্রিয়াও কম নেই। যেভাবে দিন কয়েক আগে এমনই এআই-অপকর্মের সম্মুখীন হয়েছেন অভিনেত্রী রশ্মিকা মান্দানা। অন্য এক মহিলার ভিডিওতে বসিয়ে দেওয়া হয়েছে রশ্মিকার মুখ। নেটদুনিয়া মেতেছে জোর তরজায়। তাঁদের অভিযোগ 'শালীনতা'-র সীমা পার করেছে সেই ভিডিও। আর অমনি রশ্মিকাকে নিশানা করে নেটবিশ্বে শুরু হয়েছে আক্রমণ। পরে জানা যায়, ওই ভিডিওটি জরা প্যাটেল নামে অন্য এক জনের। যার সঙ্গে রশ্মিকার দূর দূরতক কোনও মিল নেই। গোটা শরীরটি তাঁর, মুখটির জায়গায় বসিয়ে দেওয়া হয়েছে শুধু রশ্মিকার মুখ। প্রযুক্তির ভাষায় এর নাম নাকি ডিপ ফেক ভিডিও। যা মুহূর্তের তিলকে তাল বানিয়ে ফেলতে দেরি করে না।

এ জমানা ভাইরালের। মুড়ি, মিছড়ি থেকে চিনেবাদাম- ভাইরালের হাওয়া এসে লাগে প্রায় সমস্ত পালে। আর সেই খোলা হাওয়ায় গা ভাসায় শেওড়াফুলি থেকে সানফ্রান্সিসকো। সেই সব জিনিসপত্র দেখে কোমর দোলায় সুদূর কেনিয়ায় বসা একজন। এককথায় গোটা বিশ্ব হাতের মুঠোয়। রশ্মিকার সেই ডিপ ফেক ভিডিও ভাইরাল হতেও সময় লাগেনি। প্রযুক্তির দুনিয়ায় আসলে আসল-নকল চেনা ভার। তাই এক নজরে দেখে সেই ভিডিওটিকে সত্যিই ভেবে বসেছেন নেটিজেনেরা। তবে ভুল ভাঙে অচিরেই। সামনে আসে ভিডিওয় থাকা মেয়েটির পরিচয়। অমিতাভ বচ্চন থেকে শুরু করে তাবড় তারকারা দাঁড়িয়েছেন রশ্মিকার পাশে। আইনি ব্যবস্থা নেওয়ার পরামর্শ দিয়েছেন। উদ্বেগ প্রকাশ করেছেন প্রযুক্তির এই দাপট নিয়েও।

আরও পড়ুন: রশ্মিকা মান্দানার ‘ডিপফেক’ ভিডিও ভাইরাল! AI-এর কেরামতিতে কতটা ঝুঁকির মুখে মহিলারা?

কিন্তু এই ডিপ ফেক ভিডিও আসলে কী? খায় না মাথায় মাখে? সুপার ইমপোজের ধারণা তো আর নতুন নয়। এর আগেও অন্য়ের ছবি বা ভিডিওয় আরেকজনের মুখ বসিয়ে দেওয়ার রাস্তা ছিল। আর সেই রাস্তাকে হাতিয়ার বানিয়ে ব্ল্যাক মেলের ঘটনাও নতুন ছিল না। স্বভাবতই এ ধরণের ঘটনার সবচেয়ে বড় শিকার ছিল মেয়েরাই। আপত্তিজনক ভিডিওয় তাঁদের মুখ বসিয়ে তা ভাইরাল করে দেওয়ার নামে আদায় করা হত মোটা টাকা। এ-ও এক জামতাড়া বলা যায়। এ ধরনের ঘটনা আজও ঘটে। সাধারণ মানুষ তো বটেই, তারকারা তো আরও বেশি করে এই ধরনের অপরাধের শিকার হন। আর এআই এসে সেই সব অপরাধগুলিকে আরও নিখুঁত আরও দক্ষ করে তুলেছে।

ডিপফেক শব্দটিকে যদি খুঁটিয়ে দেখেন, তাহলে তার অন্দরে রয়েছে দুটি শব্দ। একটি ডিপ, যার অর্থ গভীর। দ্বিতীয় শব্দ ফেক, অর্থাৎ নকল বা জাল। এই ডিপফেক ভিডিও আসলে এমন এক ধরনের ভিডিও এডিটের ধরন, যেখানে অরিজিনাল ভিডিওয় থাকেন অন্য কেউ, আর সেখানে অন্য একজনের মুখ এমন নিখুঁত ভাবে এডিট করে বসানো হয়, যেখানে সামান্যতম ত্রুটিও খুঁজে পাওয়া কঠিন। ডিপ ফেক আদতে আর্টিফিশিয়াল ইন্টেলিজেন্সের এক ধরনের প্রকার, যাকে বলা হয় ডিপ লার্নিং টু মেক ইমেজেস অব ফেক ইভেন্টস। অর্থাৎ একটু ভুয়ো মুহূর্তের ছবি এমন ভাবে তৈরি করা, যেখানে খুঁত পাওয়া যাবে না। এ ধরনের ডিপ ফেক ভিডিও তৈরির জন্য হাজার একটা অ্যাপ এবং এআই টুল এখন রয়েছে হাতের কাছেই। তার মধ্যে বহু এআই টুলই ব্যবহার করা যায় একেবারে নিখরচায়। আর সেই সুযোগটা নিয়েই বাড়ছে ফেক ফটো, ভিডিও ও অডিও বানানোর রমরমা।

এ এক আশ্চর্য দুনিয়া। যে সঙ্গীতশিল্পী মারা গিয়েছেন, তাকে দিয়েও আজকাল গাইয়ে নেওয়া যেতে পারে আনকোরা নতুন গান। কীভাবে সম্ভব? উত্তর এআই। ধরুন একটি গান সনু নিগমের গলায় বিখ্যাত। সেই গানটি এআই টুল দিয়ে গাইয়ে নেওয়া যেতে পারে অরিজিৎ সিং, কিশোর কুমার কিংবা শচীনকর্তাকে দিয়েও। তার জন্য সেই শিল্পীর প্রয়োজন হবে না মোটেই। শুধু প্রয়োজন হবে একটি এআই টুলের। প্রযুক্তি এমন জায়গায় এগিয়েছে আজকের দুনিয়ায়।

 

আসলে এ দুনিয়াটাই এআইয়ের। যেদিকে তাকাবেন, বিস্ময়ের সঙ্গে দেখবেন, তার হাত ধরেছে আর্টিফিশিয়াল ইন্টেলিজেন্স। এসি, টিভি থেকে গাড়ি, কোথায় তার আশীর্বাদী হাত নেই বলুন তো। কিন্তু সেই এআই-ই যে খারাপ লোকের হাতে পড়লে হয়ে উঠতে পারে কতটা মারণ, তা বোধহয় আজকের যুগে কারওর অজানা নয়। এই ডিপফেক ভিডিওর কথাই ধরুন না, ব্যাপারটা এতটাই নিখুঁত ও বিশ্বাসযোগ্য, যে খালি চোখে ধরা প্রায় অসম্ভব। কিন্তু কথায় বলে, কোনও অপরাধই সম্পূর্ণ ভাবে নিখুঁত হয় না। কোনও না কোনও ফাঁক থেকেই যায় তাতে। কীভাবে চিনবেন ডিপ ফেক ভিডিওর ফাঁক? রয়েছে সেই উপায়ও।

অস্বাভাবিক চোখের ভঙ্গি:

ডিপ ফেক ভিডিওর ক্ষেত্রে চরিত্রের চোখের দিকে তাকিয়ে দেখুন ভালো করে। চোখের পাতা না পড়া বা চোখের মণির অস্বাভাবিক চলন বলে দেবে ভিডিওটি আসল না নকল।

রং ও আলোর অমিল:

ছবির চরিত্রের মুখ ও বাকি অংশের সঙ্গে রং ও আলো যেন ঠিক মতো মেশেনি। ডিপ ফেক ভিডিও বোঝার ক্ষেত্রে কিন্তু এটা একটা বড় দিক।

অডিও-র মান:

ভিডিওয় যে অডিওটি শোনা যাচ্ছে তার মান কেমন খতিয়ে দেখুন। তার সঙ্গে ঠোঁটের নড়াচড়া একেবারে স্বাভাবিক কিনা সেটাও কিন্তু ডিপফেক ভিডিও চেনার একটা বড় দিক।

ভিডিওর অসঙ্গতি:

ভালো করে ভিডিওটি খেয়াল করুন। শরীরের আকৃতি বা নড়াচড়া বা মুখের ভঙ্গি বা বৈশিষ্ট্যের অস্বাভাবিকত্ব, বহু ক্ষেত্রে বিশ্রী শারীরিক ভঙ্গিও কিন্তু ভিডিওর আসল-নকল বুঝিয়ে দেবে।

Rashmika Mandanna Deepfake Controversy What is a deepfake video and how can you spot one?

রিভার্স ইমেজ সার্চ:

অঙ্কের ক্ষেত্রে উল্টোদিক থেকে ছকে দেখার কথা তো অনেকেই শুনেছেন। ডিপ ফেক ভিডিও চিনতে করুন ঠিক সেই কাজটিই। উল্টো দিকে হেঁটে ভিডিও বা ভিডিওয় থাকা ব্যক্তিটিকে চেনার চেষ্টা করুন।

ভিডিওর মেটাডেটা:

ভিডিওটি ডিপফেক কিনা বুঝতে গিয়ে তার ডিটেইলসে গিয়ে সেটির মেটাডেটা চেক করুন। তাহলেই ভিডিওর সোর্সের ব্যপারে জানতে পারবেন। ভিডিওটি এডিটেড বা ট্যাম্পার্ড কিনা তাও বুঝতে পারবেন।

ডিপফেক ডিটেকশন টুল:

ভাইরাস যেমন আছে, তার প্রতিষেধকও আছে। বহু অনলাইন প্ল্যাটফর্ম ও এক্সটেনশন আচে, যা ডিপ ফেক ভিডিওকে শনাক্ত করতে সক্ষম। ফলে সেই সব টুলের সাহায্যও নিতে পারেন ডিপ ফেক চিনতে।

আরও পড়ুন:এবার খবরও পড়বে AI সংবাদপাঠিকা! সংবাদ পাঠে সত্যিই গুরুত্বহীন মানুষ?

এআই বেসড ডিটেকশন, ব্রাউজার প্লাগইনস, স্টার্টআপস, আনফেকেবল রেকর্ডসের মতো একাধিক এআই টুল পাওয়া যায় বাজারে। যা একনিমেষে ধরে দিতে পারে একটি ভিডিও ডিপ ফেক কিনা। তাই কোনও ভাইরাল ভিডিওকে আরও বেশি মানুষের কাছে ছড়িয়ে দেওয়ার আগে সেই সব টুলের সাহায্য নিন। বহু ক্ষেত্রেই ডিপফেক ভিডিও ব্যাবহার করা হয় কৌতূকের কাজে, আনন্দ দেওয়ার জন্য। কিন্তু তার আড়ালে একদল সেই প্রযুক্তিকে ব্যবহার করছে মানুষকে উত্যক্ত করার জন্য, তাঁর সামাজিক স্থিতি ঘেঁটে দেওয়ার জন্য। মনে রাখবেন, এই ভাইরালের যুগে যে ডিপ ফেক ভিডিও বানাচ্ছে, তার যেমন অপরাধ সর্বোচ্চ, পাশাপাশি আমরা যারা প্রতিমুহূর্তে সামাজিক মাধ্যমে একটি কনটেন্টকে আরও বেশি সংখ্যক মানুষের কাছে পৌঁছে দিচ্ছে, তাঁদের শরীরেও কিন্তু সেই অপরাধের কুচি এসে লাগে। ফলে সতর্ক হওয়ার প্রয়োজন আমাদেরও। কোনও ভিডিওকে সঞ্চারিত করার আগে সেটি আসল না নকল, তা খতিয়ে দেখার দায়িত্ব কিন্তু আমাদেরই।

More Articles