১৫ই চৈত্র, ১৪৩০ বঙ্গাব্দ
২৯শে মার্চ, ২০২৪ খ্রিস্টাব্দ
রাত ৪:১৬

জনপ্রিয় ৫ সংবাদ

আরো কিছু সংবাদ

ডিপফেইক : নিজের চোখকে কি আর পারবেন করতে বিশ্বাস?

ড. রাগিব হাসানঃ আদালতে আসামির কাঠগড়ায় দাঁড়িয়ে আপনি। দিনে দুপুরে নাকি খুন করেছেন একজনকে। আপনি নির্দোষ, খুনের সময়ে ধারে কাছেও ছিলেন না। কিন্তু প্রতিপক্ষের উকিল তুরুপের তাসটা ছাড়লেন, মহামান্য আদালত, আমাদের কাছে ভিডিও আছে খুনের।

অবাক বিস্ময়ে আপনি দেখলেন, স্পষ্ট একটি ভিডিও। আপনি নিজে নৃশংসভাবে খুন করলেন মানুষটাকে, স্পষ্টভাবে দেখা যাচ্ছে আপনার চেহারা, খুন করে ক্যামেরার দিকে তাকিয়ে রক্তমাখা ছুরি হাতে দিচ্ছেন অট্টহাসি।

আর কি কোনো প্রমাণ লাগে?

অথবা আরেকদিন। ফেইসবুকে ঢুকতেই আঁতকে উঠলেন। আপনার বন্ধুরা সবাই শেয়ার করছে একটি ভিডিও। আপনার প্রিয়জন কারও পরকীয়ার ভিডিও, স্পষ্ট দেখা যাচ্ছে ঝকঝকে ভিডিওতে আপনার সেই প্রিয়জনটির চেহারা অন্য মানুষের সাথে অন্তরঙ্গ সময়ে।

সন্দেহ করার অবকাশ কি আছে?

ভিডিও কি আর মিথ্যা বলে?

জ্বী, বলে, খুব ভালো করেই বলে।

আর সচক্ষে দেখা জিনিসের ওপরে আস্থা টলিয়ে দেয়া এই প্রযুক্তির নাম হলো ডিপফেইক (DeepFake)। ফটোশপ দিয়ে যেমন নকল ছবি বানানো যায় অবিকল আসল ছবির মতো, ডিপফেইক দিয়ে একইভাবে বানানো সম্ভব নকল ভিডিও। চোখে দেখে আদৌ বুঝতেও পারবেন না।

একটা সময় ছিলো যখন ছবি কথা বলতো। যেকোনো ঘটনার ফটো থাকলে সেটা অকাট্য প্রমাণ হিসাবে সর্বত্র সবাই মেনে নিতো। এর পরে এলো ফটোশপের যুগ। চেহারা পাল্টে বা একজনের শরীরে আরেকজনের মাথা লাগিয়ে যেকোনো রকমের ছবি বানানো সম্ভব। এতে এক্সপার্ট হতে হয় না, ফটোশপে মাঝারি দক্ষতা থাকলেই এটা সম্ভব।

ছবি তাই আজ আর কথা বলে না। নকল ছবি বানানোটা আজ দুধভাত।

কিন্তু এই ২০১৮ সালেও ভিডিওকে ধরা হয় আসল প্রমাণ। যেকোনো ঘটনার যদি ভিডিও দেখানো যায়, সবাই অবশেষে সেটাকে বিশ্বাস করে। কারণ সবার ধারণা ভিডিওকে নকল বানানো সম্ভব না। একজন মানুষের মুখের উপরে আরেকজন মানুষের মুখকে বসিয়ে দেয়া অনেক কঠিন, কাজেই ভিডিও থাকলে সেটাই সম্পূর্ণ অকাট্য প্রমাণ।

কিন্তু, না। এই কথাটাই আর সত্যি না।

আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) এবং ডিপ লার্নিংয়ের এই আমলে ভেঙে পড়ছে সব প্রতিষ্ঠিত ধ্যান ধারণা। এই এআই ও ডিপ লার্নিং কে কাজে লাগিয়ে নকল ভিডিও বানানোর প্রযুক্তি এখন এসে গেছে সবার হাতের নাগালে। বছর খানেক আগে জনপ্রিয় সাইট রেডিট এ ডিপফেইক নামের একজন অজ্ঞাতনামা ইউজার বেশ কিছু ভিডিও পোস্ট করেন। খ্যাতনামা কয়েকজন হলিউডি অভিনেত্রীর পর্নোগ্রাফিক ভিডিও। বলাই বাহুল্য, এসব ভিডিও ছিলো নকল। এসব অভিনেত্রীর চেহারাকে অন্য ভিডিওর কারো মুখে বসিয়ে দিয়ে বানানো। কিন্তু এই কাজটা করা হয়েছে দারুণ দক্ষতায়। খালি চোখে দেখে বুঝতেই পারবেন না যে ভিডিওটা নকল।

সেই থেকে শুরু। গত এক বছরে এই প্রযুক্তিকে আরও সহজ ব্যবহারযোগ্য করে সবার হাতের নাগালে এনে দিয়েছে কে বা কারা। আগে এগুলো বানাতে প্রচণ্ড দক্ষতার দরকার হতো, লাগতো শক্তিশালী সুপার কম্পিউটারের মতো ক্ষমতাময় যন্ত্র।

কিন্তু এখন? পুরো কাজটা করা যায় ডেস্কটপে। আর কাজটাকে সহজ করার জন্য ফেইকঅ্যাপ নামের ডেস্কটপ অ্যাপও বের হয়ে গেছে। লাগবে কেবল যার নকল ভিডিও বানানো হবে, তার অনেকগুলো ছবি। সেই ছবিটা সিস্টেমে ঢুকিয়ে দিলে মানুষটার চেহারাটা কেমন তা শিখে যায় এআই ও ডিপ লার্নিং ভিত্তিক সিস্টেমটা। এর পরে যে ভিডিওতেই চান, সেখানেই যেকারো মুখটা পাল্টে এই চেহারাটা বসিয়ে দেয়া যায়, অবিকলভাবে, যেন আসলেই সেই মানুষটিকে দেখা যাচ্ছে স্পষ্টভাবে।

এই প্রযুক্তিতে বানানো ভিডিও এখন ইন্টারনেটের সর্বত্র। পর্নোগ্রাফিতে তো আছেই, রাজনীতিবিদ বা অন্যান্য মানুষদের ফাঁসাতে নকল ভিডিও কেলেংকারি, কারো উপরে প্রতিশোধ নিতে বা হেনস্তা করতে বানানো ভুয়া ভিডিও। এরকম নানা কাজে ব্যবহার করা হচ্ছে এই ডিপফেইক প্রযুক্তি।

গত এক বছরে এতো উন্নতি হয়েছে যে, বোঝাই সম্ভব না যে একটি ভিডিও আসল না নকল ডিপফেইক দিয়ে বানানো। ভিকটিমের কয়েকটি ফটো জোগাড় করা গেলেই এই ডিপফেইক ভিডিও বানানো সম্ভব। ফেইসবুকের কল্যাণে যেভাবে সবার ছবি সবখানে আছে, তাতে করে আপনি আমি আমরা যে কেউই আসলে ডিপফেইকের শিকার হতে পারে, কাল নয়, আজই।

ব্যাপারটা আসলে যুগান্তকারী। এক সময়ে যেমন ছবিকে অকাট্য প্রমাণ ধরা হতো, ফটোশপের যুগে সেটা আর হয় না। একইভাবে আমরা এখন যেমন ভিডিওকে অকাট্য প্রমাণ ধরি কোনো ঘটনার, তা হয়তো আর ধরার উপায় থাকবে না।

যেকোনো আসল ঘটনাকেও উড়িয়ে দেয়া যাবে নকল ভিডিওর অভিযোগ এনে। আমাদের সংবাদ মাধ্যম ও ফেইক নিউজের উপরে অনাস্থা বাড়বে আরও। আবার আসল ভিডিওকেও যে কেউ উড়িয়ে দিতে পারে সবই নকল, সবই ডিপফেইক ভিডিও বলে।

মনে আছে সেই ভণ্ড ধর্মব্যবসায়ীর কথা? ভিডিওতে তার কুকর্ম ধরার পরে বলেছিলো, ‘ইগুলা ইডিট করা যায় ভাই’। তাকে নিয়ে আমরা সবাই হেসেছিলাম সে সময়। কিন্তু আজ অট্টহাসিটা মনে হয় সেই হাসবে। অথবা ভবিষ্যতে তার মতো লোকজনেরা বলার মতো আরো অজুহাত কিন্তু পেয়ে গেলো।

ডিপফেইক প্রযুক্তিকে ঠেকানোর কোনো উপায় নেই, যেমনটা ঠেকানো যায়নি ফটোশপের নকল ছবিকে। কিন্তু আজ থেকে আপনি নিজের চোখকে আর সেভাবে বিশ্বাস করতে পারবেন না, সেই কথাটাই রাখুন জেনে। কোনটা বাস্তব, কোনটা বানোয়াট, তা সাধারণভাবে ধরার উপায় যে আর নেই।

এলো ডিপফেইকের যুগ। আপনি আমি আমরা, কেউই কি আর নিরাপদ নকল ভিডিওর হাত থেকে?

লেখক : সহযোগী অধ্যাপক, কম্পিউটার বিজ্ঞান,
কম্পিউটার সিকিউরিটি ও প্রাইভেসি বিশেষজ্ঞ, 
ইউনিভার্সিটি অফ আলাবামা অ্যাট বার্মিংহাম, যুক্তরাষ্ট্র।