সময়টা ডিসেম্বর মাস। চারিদিকে শীতের আমেজ। কনকনে ঠাণ্ডা। অদূরে জানালার ওপাশে বইছে হিমশীতল হাড়কাঁপানো বাতাস।
ফুলপুর নামক ছোট্ট এক গ্রামে সাত-সকালে কম্বলের নীচ থেকেই ফেসবুকে ঢুঁ মারেন রূপা। নীল-সাদার স্বপ্নময় জগৎটায় প্রবেশ করতেই গা শিউরে ওঠে তাঁর। যা দেখছে তা কি সত্যি? নাকি বেঘোর ঘুমে দুঃস্বপ্ন দেখছে সে? এক ঝটকায় শোয়া থেকে উঠে বসে রূপা। শরীরে চিমটি কাটে আলতো করে। লক্ষ্য করে, জবুথবু শীতেও কপাল বেয়ে তরতর করে ঝরছে ঘাম! স্বপ্নিল জগৎটা মূহুর্তেই বীভৎস হয়ে ধরা দেয় তাঁর কাছে।
ভিডিওটি ফুটেজটি ইতোমধ্যে সামাজিক যোগাযোগ মাধ্যমে ভাইরাল হয়ে পড়েছে৷ ভালো কিছু যত দ্রুত ছড়ায়, খারাপ কিছু ছড়ায় তারও বহুগুণ দ্রুততায়৷ আর হয়েছেও তাই। বন্ধুবান্ধব, পরিচিতজনেরা সমানে টেক্সট করে যাচ্ছেন। শেয়ারও করেছেন কেউ কেউ। ফোনের কল লিস্ট ভরে উঠেছে অসংখ্য মিসড কলে। কিন্তু রূপা জানে, ভিডিওর মেয়েটি সে নয়। তার মুখাবয়ব ও কণ্ঠস্বর হুবহু নকল করা হয়েছে। দেখতেও হয়েছে একেবারে তার মতোই। কিন্তু, পরিবার-পরিচিতজনদের বোঝাবে কীভাবে? কে বা কারা, কীভাবেই বা তৈরি করলো এমন নকল ভিডিও?
হ্যাঁ, আপনি যা ভাবছেন, এটি তাই। এটি অধুনা প্রযুক্তিরই এক বীভৎস কারসাজি। ফটোশপ কিংবা অন্যান্য এডিটিং সফটওয়্যারের সাহায্যে কেবল নিখুঁতভাবে ছবি এডিট করা গেলেও এখন প্রযুক্তির উৎকর্ষে (বা অপকর্ষে) ভিডিও এডিট করা যায় এর চেয়েও নিখুঁতভাবে, দ্রুততার সাথে। মানব দৃষ্টির পর্যায়কাল ০.১ সেকেন্ড বা ১০০ মিলি সেকেন্ড। অর্থাৎ এর চেয়ে কম সময়ে ঘটে যাওয়া কোনো দৃশ্যপট মানব চক্ষু যুগলে ধরা পড়বে না। আর এআই ভিডিও তৈরির মূল ফাঁকিটুকু এখানেই। কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি করা এসব ভিডিওতে নানা ধরনের রূপান্তর ঘটে এর থেকেও কম সময়ে। তাই খালি চোখে আসল-নকলের পার্থক্য বোঝা হয়ে পড়ে মুশকিল।

ডিপফেক আসলে কী?
ইংরেজি DeepFake শব্দটি থেকে বাংলা ডিপফেক শব্দের উদ্ভব। যার ভাবার্থ দাঁড়ায়– গভীর-নকল, নিখুত-জাল বা নিগূঢ়-কপটতা। ডিপফেক শব্দটি ভাঙলেও গড়ে উঠে দু’টি আলাদা শব্দ। ডিপ-ফেক। প্রথম শব্দটি ডিপ-লার্নিং বা মেশিন লার্নিংয়ের উপর দন্ডায়মান। অত্যাধুনিক সফটওয়্যার ও কৃত্রিম বুদ্ধিমত্তা প্রযুক্তিকে কাজে লাগানো হয় এখানটায়। এটি বেশ জটিল ও কঠিন প্রোগ্রামিং ল্যাঙ্গুয়েজ, একাধিক স্তরে বিন্যস্ত উচ্চস্তরের প্রযুক্তি জ্ঞান।
আর দ্বিতীয় ‘ফেক’ শব্দটি নকল, জাল ইত্যাদি বিষয়কে নির্দেশ করে। ভেজাল, কারচুপি, সত্য নয় এমন সবকিছুই ফেক শব্দটি দিয়ে সংজ্ঞায়িত করা যায়। প্রযুক্তির ভাষায়– ডিপফেক মূলত কৃত্রিম বুদ্ধিমত্তার প্রয়োগের সাহায্যে সমন্বয়কৃত নকল বিষয়বস্তু। সেটা হতে পারে, ছবি, অডিও-ভিডিও বা অ্যানিমেশন প্রভৃতি।

যেভাবে কাজ করে
ডিপফেক মূলত অডিও-ভিডিওর নকল প্রতিরূপ, যা প্রথম দর্শনে সত্য বলেই মনে হবে। মেশিন লার্নিং এই প্রতিরূপ তৈরির প্রধান হাতিয়ার। মেশিন লার্নিংয়ের একটি কৌশলের নাম ‘জেনারেল অ্যাডভারসেরিয়াল নেটওয়ার্ক’ বা GAN। এর মাধ্যমে প্রথমত একজন ব্যক্তির হাজারখানেক অভিব্যক্তির ছবি সংগ্রহ করা হয়। বিন্যস্ত করা হয় স্বয়ংক্রিয়ভাবে। প্রস্তুত করা হয় ভিডিও সিমুলেশন। এর সাথে জুড়ে দেওয়া হয় অডিও। কিন্তু কীভাবে?
প্রথমত, পুরো প্রক্রিয়াটি সম্পন্নে ব্যবহার করা হয় দুটি ভিন্ন ধরনের অ্যালগরিদম। প্রথম অ্যালগরিদমটি ছবি, অডিও-ভিডিও ইত্যাদি জেনারেট করার কাজটি করে। চেষ্টা করে ব্যবহারকারী ঠিক যেরকম চায় সেরকম নকল প্রতিরূপ প্রদানের। অন্য অ্যালগরিদমটি প্রদানকৃত প্রতিরূপের পার্থক্য খুঁজে বের করতে সহযোগিতা করে। নির্ণয় করে বিভিন্ন ব্যবধান। কপালের ভাঁজ, মুখের খাঁজ ইত্যাদি কোনটি, কোথায়, কেমন হবে সেগুলোও সঠিকভাবে নিশ্চিত করতে সহযোগিতা করে, ঠিক যতক্ষণ না নকলটি পুরোপুরি আসলের মতো হচ্ছে।
গলার স্বর প্রদানে অবলম্বন করা হয় ভিন্ন কৌশল। কেননা, নকল ভিডিও বা অডিওতে থাকা স্বর হুবহু আসল ব্যক্তির মতো হতে হবে। এর জন্য আসল ব্যক্তির সত্যিকার স্বরের সত্যিকার নমুনা সংগ্রহ করতে হয়। ইনপুট করা হয় এআই নমুনায়। অতঃপর, কৃত্রিম বুদ্ধিমত্তা স্বরটি নিয়ে পাখির মতো কিচিরমিচির শব্দে বিশ্লেষণ করবে। প্রকৃত স্বরের কাছাকাছি হলেই থামিয়ে দিবে। প্রদান করবে স্বয়ংক্রিয় নির্দেশনা।


শুরুর কথন
২০১৭ সাল। আমেরিকান সামাজিক মাধ্যম রেডিট, যারা আলোচিত সামাজিক গল্প, ছবি, অডিও, ভিডিও ইত্যাদির রেটিং করে থাকে, সর্বদাই মুখরিত থাকে ব্যবহারকারীদের বিচরণে। একদিন তাদের থ্রেটে একটি অনুরোধ আসে (রেডিটের কয়েকটি পোস্টকে একত্রে থ্রেট বলা হতো)। অনুরোধটি করেন ডিপফেক নামধারী একজন ব্যবহারকারী।
দাবি করেন, প্রোগ্রামিংয়ের মাধ্যমে বিখ্যাত ব্যক্তিদের মুখাবয়ব দুষ্টু কন্টেন্টে রূপ দিতে পারেন তিনি। অন্যান্য ব্যবহারকারীদের পাঁচকান হয়ে বিষয়টি রেডিটের বাইরেও ছড়িয়ে পড়ে দ্রুত। ঝড় উঠে আলোচনা-সমালোচনার। একসময় রেডিট তাদের পোস্টগুলো সরাতে বাধ্য হয়। কিন্তু ততদিনে মানুষজন জেনে গেছে, ছড়িয়ে পড়েছে ডিপফেক প্রযুক্তির রহস্য।
প্রায় ২৫ বছর পূর্বে, ১৯৯৭ সালে একটি গবেষণাপত্রকে ভিত্তি করে তিনি তৈরি করেন এই অ্যালগরিদম। তাই ডিপফেকের একক কোনো উদ্ভাবক নেই। এই হাত সেই হাত হয়ে ধারণাটি উঠে এসেছে। ২০১৪ সালে এসে এর পরিপূর্ণ রূপদান করেছেন ইয়ন গুডফেলো। তার তৈরি করা জেনারেটিভ অ্যাডভারসিয়াল নেটওয়ার্ক বা GAN’ই ডিপফেক প্রযুক্তির মূল চাবিকাঠি।

ডিপফেকের উদাহরণ
চলুন, বাস্তবে ঘটে যাওয়া ডিপফেক প্রযুক্তির কিছু আলোচিত ঘটনা জেনে আসা যাক-
১
। ২০১৮ সালের মে মাস। তৎকালীন মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্প বেলজিয়ামের জলবায়ু পরিবর্তন নিয়ে ভিডিও বার্তা দিয়েছেন। সেখানে জলবায়ু পরিবর্তনজনিত অসচেতনতার কারণে অকথ্য ভাষায় গালিগালাজ করতে দেখা যায় তাকে। হাস্যরসাত্মক ট্রাম্পের মুখে এমন কুৎসিত মন্তব্য শোনে ক্ষোভে ফুঁসে ওঠে বেলজিয়ানরা। টুইটারে পোস্ট হতে থাকে একের পর এক টুইট।
আসলে, বেলজিয়ান বিরোধী দলের কাজ ছিলো এটি৷ জলবায়ু পরিবর্তন সম্পর্কে ইতিবাচক সিদ্ধান্ত নিতে সরকারকে প্ররোচিত করতে তারা এমনটি করেছিল। ব্যবহার করতে চেষ্টা করেছিল জনগণের সরল মানসিকতা। তারা একটি প্রোডাকশন স্টুডিওর সাহায্যে তৈরি করে এই নকল ভিডিও।
২। মার্কিন প্রেসিডেন্ট বারাক ওবামা। একদিন তাকে নিয়েও একটি ভিডিও বার্তা সামাজিক যোগাযোগ মাধ্যমে ছড়িয়ে পড়ে। সেখানে দেখা যায়, তিনি সরাসরি ডোনাল্ড ট্রাম্পকে গালি দিচ্ছেন। বিষয়টি দৃষ্টি কাড়ে ন্যাটিজেনদের। যদিও পরে এর মিথ্যার সত্যতা মেলে। চলচ্চিত্র পরিচালক জর্ডান পিলি ও বাজফিড ওয়েবসাইট সম্মিলিতভাবে তৈরি করে এই ভিডিও। উদ্দেশ্য- ডিপফেক সম্পর্কে জনসাধারণকে সচেতন করা। বিতর্কিত ভিডিও সম্পর্কে প্রথমেই যেন সন্দেহ পোষণ না করে তারা।
৩। অভিনেত্রী ক্যারি ফিশারকে অনেকেই চিনে থাকবেন। ২০১৬ সালে স্টার ওয়্যারস সিরিজের ‘রৌগ ওয়ান’ প্রিকুয়েলটি মুক্তি পায়৷ এই সিরিজের একটি দৃশ্যে ফিশারের যুবতী বয়সের একটি দৃশ্য ধারণের প্রয়োজন পড়ে। যদিও ক্যারি ফিশার তখন ষাট বছর বয়সী বৃদ্ধা! তাই তার কম বয়সী সংস্করণ তৈরি করতে এই ডিপফেক প্রযুক্তির আশ্রয় নেওয়া হয়। উল্লেখ্য, সিনেমা মুক্তির মাস, ২৭শে ডিসেম্বরে এই জনপ্রিয় অভিনেত্রী মৃত্যুবরণ করেন।

শনাক্তকরণের উপায়?
পৃথিবীতে শতভাগ নিখুঁত বলে কিছু নেই। সময়ের ঘূর্ণাবর্তে সবকিছুর খুঁত বের হবেই, ধরা দেবে দুর্বলতা। ডিপফেকের ক্ষেত্রেও বিষয়টি শতভাগ খাঁটি। এখন কেবল সময়ের অপেক্ষা, যথোপযুক্ত গবেষণাই জানান দিবে এর আশু সমাধান। কিছু প্রতিষ্ঠান ইতোমধ্যেই এর জটিলতা সমাধানে চালাচ্ছে গবেষণা। এসবের শনাক্তকরণে ব্যবহার করছে নিজস্ব অ্যালগরিদম।
ডিপট্রেস, ভিডিও ইনভিড সফটওয়্যার, রিভার্স ইমেজ সার্চ, ভিডিও-মেটাডেটা, ফটো-মেটাডেটা, অ্যামনেস্টি ইন্টারন্যাশনালের ইউটিউব ডেটা ভিউয়ার, জার্মানির মিউনিখ বিশ্ববিদ্যালয়ের ভিজুয়াল কম্পিউটিং ল্যাবের গবেষকদলের ফেস-ফরেনসিক সফটওয়্যার অন্যতম। এসব প্রোগ্রাম ও সফটওয়্যার চালাচ্ছে ডিপফেক শনাক্তকরণে নিরলস প্রচেষ্টা।
সে দিন আসা অবধি একটু গভীরভাবে দৃষ্টি নিবদ্ধ করলেই এর থেকে কিছুটা হলেও পরিত্রাণ মিলবে। চোখে ধরা পড়বে নানাবিধ অসামঞ্জস্যতা। যেমন- আসল ও নকল মুখভঙ্গির ভিন্নতা, শারীরিক অঙ্গভঙ্গি, চোখের পাতার ওঠা-নামার সময়ের পার্থক্য, কথার সরলতা, কণ্ঠের কঠোরতা-কোমলতা, ঠোঁটের নড়াচড়া, চুলের রং ও গড়ন প্রভৃতি মৌলিক বিষয়গুলো খুঁটিয়ে দেখলেই ধরা পড়বে পার্থক্য। এগুলোতেও ধরা না গেলে ভাবতে হবে গভীরভাবে। অনুসন্ধান করতে হবে কনটেন্টের আলো-ছায়ার খেলা নিয়ে। পটভূমিতে থাকা সাবজেক্টের চেয়ে ব্যক্তি সাবজেক্ট ঝাপসা নাকি স্পষ্ট, এসবেও দিতে হবে গুরুত্ব।

ভবিষ্যতের কর্মকাণ্ড
ডিপফেক, সত্যকে পুঁজি করে সৃষ্টি করা এক অভাবনীয় মিথ্যা-প্রতারণা। আর এই বিবর্ণ প্রতারণার বেশিরভাগ ভুক্তভোগী বিখ্যাত ব্যক্তিবর্গ, রাজনৈতিক নেতৃত্ব ও সেলিব্রিটি তারকারা। ফেসবুক, ইন্সটাগ্রামে তাদের শেয়ার করা ছবি, ভিডিও ইত্যাদি সংগ্রহ করে গ্রহণ করা হয় এমন ঘৃণ্য কার্যক্রম। এর অধিকাংশই হয়ে থাকে ব্ল্যাক মেইলিং বা অন্য কোনো অসৎ উদ্দেশ্য চরিতার্থকরণে।
বিজ্ঞান প্রতিনিয়ত বিবর্তিত হচ্ছে। পরিবর্তিত হচ্ছে এর গতিধারা। নেতিবাচক প্রযুক্তির বিপরীতে উন্মোচিত হচ্ছে উপযোগী প্রযুক্তিও। তাই, আশা করা যায়, অতিদ্রুতই ডিপফেক সমস্যা সমাধানে যুগান্তকারী কোনো প্রযুক্তি আসবে৷ ধ্বসে পড়বে কপটতার ভিত৷ তৈরি হবে সৃষ্টিশীল কন্টেন্টের রুচিসম্পন্ন জগৎ। নতুবা এই অপপ্রযুক্তির অগ্রযাত্রা চলতে থাকলে একসময় আসল-নকল পার্থক্য করাই হয়ে পড়বে মুশকিল!
সে দিন আসা অবধি সবাই ভার্চুয়াল জগতে সচেতন হই, সতর্ক থাকি।

তথ্যসূত্র:
Leave a Reply