ডিপফেক: একটি কপট প্রযুক্তির আদ্যোপান্ত

লেখাটি বিভাগে প্রকাশিত

নভেম্বরের শেষ সপ্তাহ। চারিদিকে কনকনে ঠাণ্ডা। অদূরে জানালার ওপাশে বইছে হিমশীতল বাতাস।

খুলনার কলাপোতার ছোট্ট এক গ্রামে সাত-সকালে কম্বল মুড়ি দিয়েই ফেসবুকে ঢুঁ মারলেন নবনী (ছদ্মনাম)। নীল-সাদার বর্ণীল জগৎটায় প্রবেশ করতেই গা শিউরে ওঠে তাঁর। যা দেখছে তা কী আসলেই সত্যি? নাকি বেঘোর ঘুমে দুঃস্বপ্ন দেখছে সে? এক ঝটকায় শোয়া থেকে উঠে বসে নবনী। শরীরে চিমটি কাটে আলতো করে। লক্ষ্য করে, জবুথবু শীতেও কপাল বেয়ে তরতর করে ঝরছে ঘাম! বর্ণীল জগৎটা মূহুর্তেই বীভৎস হয়ে ধরা দেয় তাঁর কাছে।

ভিডিওটি ফুটেজটি ইতোমধ্যেই সামাজিক যোগাযোগ মাধ্যমে ভাইরাল হয়ে পড়েছে৷ ভালো কিছু যত দ্রুত ছড়ায়, খারাপ কিছু ছড়ায় তারও বহুগুণ দ্রুততায়৷ আর হয়েছেও তাই। বন্ধুবান্ধব, পরিচিতজনেরা সমানে টেক্সট করে যাচ্ছেন। শেয়ারও করেছেন কেউ কেউ। ফোনের কল লিস্ট ভরে উঠেছে অসংখ্য মিসড কলে। কিন্তু নবনী জানে, ভিডিওর মেয়েটি সে নয়। তার মুখাবয়ব ও কণ্ঠস্বর হুবহু নকল করা হয়েছে। দেখতেও হয়েছে একেবারে তার মতোই। কিন্তু, পরিবার-পরিচিতজনদের বোঝাবে কিভাবে? কে বা কারা, কিভাবেই বা তৈরি করলো এমন নকল ভিডিও?

হ্যাঁ, আপনি যা ভাবছেন, এটি তাই। এটি অধুনা প্রযুক্তিরই এক বীভৎস কারসাজি। ফটোশপ কিংবা অন্যান্য এডিটিং সফটওয়্যারের সাহায্যে কেবল নিখুঁতভাবে ছবি এডিট করা গেলেও এখন প্রযুক্তির উৎকর্ষে (বা অপকর্ষে) ভিডিও এডিট করা যায় এর চেয়েও নিখুঁতভাবে, দ্রুততার সাথে। মানব দৃষ্টির পর্যায়কাল ০.১ সেকেন্ড বা ১০০ মিলি সেকেন্ড। অর্থাৎ এর চেয়ে কম সময়ে ঘটে যাওয়া কোনো দৃশ্যপট মানব চক্ষু যুগলে ধরা পড়বে না। আর এআই ভিডিও তৈরির মূল ফাঁকিটুকু এখানেই। কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি করা এসব ভিডিওতে নানা ধরনের রূপান্তর ঘটে এর থেকেও কম সময়ে। তাই খালি চোখে আসল-নকলের পার্থক্য বোঝা হয়ে পড়ে মুশকিল।

খালি চোখে কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি করা এসব ভিডিওর পার্থক্য বোঝা মুশকিল; Image Source: The Guardian

ডিপফেক কী?

ইংরেজি DeepFake শব্দটি থেকে বাংলা ডিপফেক শব্দের উদ্ভব। যার ভাবার্থ দাঁড়ায়– গভীর-নকল, নিখুঁত-জাল বা নিগূঢ়-কপটতা। ডিপফেক শব্দটি ভাঙলেও গড়ে উঠে দু’টি আলাদা শব্দ। ডিপ ও ফেক। প্রথম শব্দটি ডিপ-লার্নিং বা মেশিন লার্নিংয়ের উপর দন্ডায়মান। অত্যাধুনিক সফটওয়্যার ও কৃত্রিম বুদ্ধিমত্তা প্রযুক্তিকে কাজে লাগানো হয় এখানটায়। এটি নিউরাল নেটওয়ার্ক নামক বেশ জটিল ও কঠিন অ্যালগরিদম ভিত্তিক যা বিভিন্ন প্রোগ্রামিং ল্যাঙ্গুয়েজ দিয়ে একাধিক স্তরে বিন্যস্ত একটি প্রক্রিয়ায় বিভিন্ন প্যাটার্ন শেখা ও চেনার কাজ করা হয়।

আর দ্বিতীয় ‘ফেক’ শব্দটি নকল, জাল ইত্যাদি বিষয়কে নির্দেশ করে। ভেজাল, কারচুপি, সত্য নয় এমন সবকিছুই ফেক শব্দটি দিয়ে সংজ্ঞায়িত করা যায়। প্রযুক্তির ভাষায়– ডিপফেক মূলত কৃত্রিম বুদ্ধিমত্তার প্রয়োগের সাহায্যে সমন্বয়কৃত নকল বিষয়বস্তু। সেটা হতে পারে, ছবি, অডিও-ভিডিও বা অ্যানিমেশন প্রভৃতি।

কীভাবে কাজ করে?

ডিপফেক মূলত অডিও-ভিডিওর নকল প্রতিরূপ, যা প্রথম দর্শনে সত্য বলেই মনে হবে। মেশিন লার্নিং এই প্রতিরূপ তৈরির প্রধান হাতিয়ার। মেশিন লার্নিংয়ের একটি কৌশলের নাম ‘জেনারেল অ্যাডভারসেরিয়াল নেটওয়ার্ক’ বা GAN। এর মাধ্যমে প্রথমত একজন ব্যক্তির হাজারখানেক অভিব্যক্তির ছবি সংগ্রহ করা হয়। বিন্যস্ত করা হয় স্বয়ংক্রিয়ভাবে। প্রস্তুত করা হয় ভিডিও সিমুলেশন। এর সাথে জুড়ে দেওয়া হয় অডিও। কিন্তু কিভাবে?

প্রথমত, পুরো প্রক্রিয়াটি সম্পন্নে ব্যবহার করা হয় দুটি ভিন্ন ধরনের অ্যালগরিদম। প্রথম অ্যালগরিদমটি ছবি, অডিও-ভিডিও ইত্যাদি জেনারেট করার কাজটি করে। চেষ্টা করে ব্যবহারকারী ঠিক যেরকম চায় সেরকম নকল প্রতিরূপ প্রদানের। অন্য অ্যালগরিদমটি প্রদানকৃত প্রতিরূপের পার্থক্য খুঁজে বের করতে সহযোগিতা করে। নির্ণয় করে বিভিন্ন ব্যবধান। কপালের ভাঁজ, মুখের খাঁজ ইত্যাদি কোনটি, কোথায়, কেমন হবে সেগুলোও সঠিকভাবে নিশ্চিত করতে সহযোগিতা করে, ঠিক যতক্ষণ না নকলটি পুরোপুরি আসলের মতো হচ্ছে।

গলার স্বর প্রদানে অবলম্বন করা হয় ভিন্ন কৌশল। কেননা, নকল ভিডিও বা অডিওতে থাকা স্বর হুবহু আসল ব্যক্তির মতো হতে হবে। এর জন্য আসল ব্যক্তির সত্যিকার স্বরের সত্যিকার নমুনা সংগ্রহ করতে হয়। ইনপুট করা হয় এআই নমুনায়। অতঃপর, কৃত্রিম বুদ্ধিমত্তা স্বরটি নিয়ে পাখির মতো কিচিরমিচির শব্দে বিশ্লেষণ করবে। প্রকৃত স্বরের কাছাকাছি হলেই থামিয়ে দিবে। প্রদান করবে স্বয়ংক্রিয় নির্দেশনা।

ভিডিও থেকে স্ক্রিনশট নিয়ে, অথবা ইন্টারনেটে সহজলভ্য ছবি থেকে ডিপফেক এর ট্রেইনিং ডেটাসেট তৈরি করা হয়। ছবি

শুরুটা যেভাবে

২০১৭ সাল। আমেরিকান সামাজিক মাধ্যম রেডিট, যারা আলোচিত সামাজিক গল্প, ছবি, অডিও, ভিডিও ইত্যাদির রেটিং করে থাকে, সর্বদাই মুখরিত থাকে ব্যবহারকারীদের বিচরণে। একদিন তাদের থ্রেডে একটি অনুরোধ আসে (রেডিটের কয়েকটি পোস্টকে একত্রে থ্রেড বলা হতো)। অনুরোধটি করেন ডিপফেক নামধারী একজন ব্যবহারকারী। দাবি করেন, প্রোগ্রামিংয়ের মাধ্যমে বিখ্যাত ব্যক্তিদের মুখাবয়ব দুষ্টু কন্টেন্টে রূপ দিতে পারেন তিনি। অন্যান্য ব্যবহারকারীদের পাঁচকান হয়ে বিষয়টি রেডিটের বাইরেও ছড়িয়ে পড়ে দ্রুত। ঝড় উঠে আলোচনা-সমালোচনার। একসময় রেডিট তাদের পোস্টগুলো সরাতে বাধ্য হয়। কিন্তু ততদিনে মানুষজন জেনে গেছে, ছড়িয়ে পড়েছে ডিপফেক প্রযুক্তির রহস্য।

প্রায় ২৫ বছর পূর্বে, ১৯৯৭ সালে একটি গবেষণাপত্রকে ভিত্তি করে তিনি তৈরি করেন এই অ্যালগরিদম। তাই ডিপফেকের একক কোনো উদ্ভাবক নেই। এই হাত সেই হাত হয়ে ধারণাটি উঠে এসেছে। ২০১৪ সালে এসে এর পরিপূর্ণ রূপদান করেছেন ইয়ন গুডফেলো। তার তৈরি করা জেনারেটিভ অ্যাডভারসিয়াল নেটওয়ার্ক বা GAN’ই ডিপফেক প্রযুক্তির মূল চাবিকাঠি।

 জেনারেটিভ অ্যাডভারসিয়াল নেটওয়ার্ক বা GAN দিয়ে AI সফটওয়্যার বানানো হয় যেটা ডিপফেক ছবি/ভিডিও তৈরি ও সনাক্ত করতে পারে। সূত্র

ডিপফেক কন্টেন্ট

চলুন, বাস্তবে ঘটে যাওয়া ডিপফেক প্রযুক্তির কিছু আলোচিত ঘটনা জেনে আসা যাক।

১. 

২০১৮ সালের মে মাস। তৎকালীন মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্প বেলজিয়ামের জলবায়ু পরিবর্তন নিয়ে ভিডিও বার্তা দিয়েছেন। সেখানে জলবায়ু পরিবর্তনজনিত অসচেতনতার কারণে অকথ্য ভাষায় গালিগালাজ করতে দেখা যায় তাকে। হাস্যরসাত্মক ট্রাম্পের মুখে এমন কুৎসিত মন্তব্য শোনে ক্ষোভে ফুঁসে ওঠে বেলজিয়ানরা। টুইটারে পোস্ট হতে থাকে একের পর এক টুইট।

আসলে, বেলজিয়ান বিরোধী দলের কাজ ছিলো এটি৷ জলবায়ু পরিবর্তন সম্পর্কে ইতিবাচক সিদ্ধান্ত নিতে সরকারকে প্ররোচিত করতে তারা এমনটি করেছিল। ব্যবহার করতে চেষ্টা করেছিল জনগণের সরল মানসিকতা। তারা একটি প্রোডাকশন স্টুডিওর সাহায্যে তৈরি করে এই নকল ভিডিও।

২.

মার্কিন প্রেসিডেন্ট বারাক ওবামা। একদিন তাকে নিয়েও একটি ভিডিও বার্তা সামাজিক যোগাযোগ মাধ্যমে ছড়িয়ে পড়ে। সেখানে দেখা যায়, তিনি সরাসরি ডোনাল্ড ট্রাম্পকে গালি দিচ্ছেন। বিষয়টি দৃষ্টি কাড়ে ন্যাটিজেনদের। যদিও পরে এর মিথ্যার সত্যতা মেলে। চলচ্চিত্র পরিচালক জর্ডান পিলি ও বাজফিড ওয়েবসাইট সম্মিলিতভাবে তৈরি করে এই ভিডিও। উদ্দেশ্য- ডিপফেক সম্পর্কে জনসাধারণকে সচেতন করা। বিতর্কিত ভিডিও সম্পর্কে প্রথমেই যেন সন্দেহ পোষণ না করে তারা।

৩. 

অভিনেত্রী ক্যারি ফিশারকে অনেকেই চিনে থাকবেন। ২০১৬ সালে স্টার ওয়্যারস সিরিজের ‘রৌগ ওয়ান’ প্রিকুয়েলটি মুক্তি পায়৷ এই সিরিজের একটি দৃশ্যে ফিশারের যুবতী বয়সের একটি দৃশ্য ধারণের প্রয়োজন পড়ে। যদিও ক্যারি ফিশার তখন ষাট বছর বয়সী বৃদ্ধা! তাই তার কম বয়সী সংস্করণ তৈরি করতে এই ডিপফেক প্রযুক্তির আশ্রয় নেওয়া হয়। উল্লেখ্য, সিনেমা মুক্তির মাস, ২৭শে ডিসেম্বরে এই জনপ্রিয় অভিনেত্রী মৃত্যুবরণ করেন।

রাশিয়ান প্রেসিডেন্ট ব্লাদিমির পুতিনের ডিপফেক ভিডিও; Image Source: Politico

শনাক্তকরণের উপায়

পৃথিবীতে শতভাগ নিখুঁত বলে কিছু নেই। সময়ের ঘূর্ণাবর্তে সবকিছুর খুঁত বের হবেই, ধরা দেবে দুর্বলতা। ডিপফেকের ক্ষেত্রেও বিষয়টি শতভাগ খাঁটি। এখন কেবল সময়ের অপেক্ষা, যথোপযুক্ত গবেষণাই জানান দিবে এর আশু সমাধান। কিছু প্রতিষ্ঠান ইতোমধ্যেই এর জটিলতা সমাধানে চালাচ্ছে গবেষণা। এসবের শনাক্তকরণে ব্যবহার করছে নিজস্ব অ্যালগরিদম।

ডিপট্রেস, ভিডিও ইনভিড সফটওয়্যার, রিভার্স ইমেজ সার্চ, ভিডিও-মেটাডেটা, ফটো-মেটাডেটা, অ্যামনেস্টি ইন্টারন্যাশনালের ইউটিউব ডেটা ভিউয়ার, জার্মানির মিউনিখ বিশ্ববিদ্যালয়ের ভিজুয়াল কম্পিউটিং ল্যাবের গবেষকদলের ফেস-ফরেনসিক সফটওয়্যার অন্যতম। এসব প্রোগ্রাম ও সফটওয়্যার চালাচ্ছে ডিপফেক শনাক্তকরণে নিরলস প্রচেষ্টা।

সে দিন আসা অবধি একটু গভীরভাবে দৃষ্টি নিবদ্ধ করলেই এর থেকে কিছুটা হলেও পরিত্রাণ মিলবে। চোখে ধরা পড়বে নানাবিধ অসামঞ্জস্যতা। যেমন- আসল ও নকল মুখভঙ্গির ভিন্নতা, শারীরিক অঙ্গভঙ্গি, চোখের পাতার ওঠা-নামার সময়ের পার্থক্য, কথার সরলতা, কণ্ঠের কঠোরতা-কোমলতা, ঠোঁটের নড়াচড়া, চুলের রং ও গড়ন প্রভৃতি মৌলিক বিষয়গুলো খুঁটিয়ে দেখলেই ধরা পড়বে পার্থক্য। এগুলোতেও ধরা না গেলে ভাবতে হবে গভীরভাবে। অনুসন্ধান করতে হবে কনটেন্টের আলো-ছায়ার খেলা নিয়ে। পটভূমিতে থাকা সাবজেক্টের চেয়ে ব্যক্তি সাবজেক্ট ঝাপসা নাকি স্পষ্ট, এসবেও দিতে হবে গুরুত্ব।

ডিপফেকের প্রভাব; Image Source: WholsHostingThis.com

ভবিষ্যতের ভাবনা

ডিপফেক, সত্যকে পুঁজি করে সৃষ্টি করা এক অভাবনীয় মিথ্যা-প্রতারণা। আর এই বিবর্ণ প্রতারণার বেশিরভাগ ভুক্তভোগী বিখ্যাত ব্যক্তিবর্গ, রাজনৈতিক নেতৃত্ব ও সেলিব্রিটি তারকারা। ফেসবুক, ইন্সটাগ্রামে তাদের শেয়ার করা ছবি, ভিডিও ইত্যাদি সংগ্রহ করে গ্রহণ করা হয় এমন ঘৃণ্য কার্যক্রম। এর অধিকাংশই হয়ে থাকে ব্ল্যাক মেইলিং বা অন্য কোনো অসৎ উদ্দেশ্য চরিতার্থকরণে।

বিজ্ঞান প্রতিনিয়ত বিবর্তিত হচ্ছে। পরিবর্তিত হচ্ছে এর গতিধারা। নেতিবাচক প্রযুক্তির বিপরীতে উন্মোচিত হচ্ছে উপযোগী প্রযুক্তিও। তাই, আশা করা যায়, অতিদ্রুতই ডিপফেক সমস্যা সমাধানে যুগান্তকারী কোনো প্রযুক্তি আসবে৷  ধ্বসে পড়বে কপটতার ভিত৷ তৈরি হবে সৃষ্টিশীল কন্টেন্টের রুচিসম্পন্ন জগৎ। নতুবা এই অপপ্রযুক্তির অগ্রযাত্রা চলতে থাকলে একসময় আসল-নকল পার্থক্য করাই হয়ে পড়বে মুশকিল!

References:

1. Deepfake – Britannica
2. The Deepfake Era: A Brief History – BONHAM & BROOK
3. What are deepfakes and how can you spot them? – The Guardian
4. Belgian socialist party circulates ‘deep fake’ Donald Trump video – Politico
5. Deepfake: everything you need to know about what it is & how it works – RECFACES.

লেখাটি 118-বার পড়া হয়েছে।


নিজের ওয়েবসাইট তৈরি করতে চান? হোস্টিং ও ডোমেইন কেনার জন্য Hostinger ব্যবহার করুন ৭৫% পর্যন্ত ছাড়ে।

আলোচনা

Leave a Reply

ই-মেইল নিউজলেটার

বিজ্ঞানের বিভিন্ন খবর সম্পর্কে আপডেট পেতে চান?

আমরা প্রতি মাসে ইমেইল নিউজলেটার পাঠাবো। পাক্ষিক ভিত্তিতে পাঠানো এই নিউজলেটারে বিজ্ঞানের বিভিন্ন খবরাখবর থাকবে। এছাড়া বিজ্ঞান ব্লগে কি কি লেখা আসলো, কি কি কর্মযজ্ঞ চলছে, সেটার খবরও থাকবে।







Loading