ডিপফেক: এক অধুনা প্রযুক্তির বীভৎস হাতছানি

লেখাটি , বিভাগে প্রকাশিত

সময়টা ডিসেম্বর মাস। চারিদিকে শীতের আমেজ। কনকনে ঠাণ্ডা। অদূরে জানালার ওপাশে বইছে হিমশীতল হাড়কাঁপানো বাতাস।

ফুলপুর নামক ছোট্ট এক গ্রামে সাত-সকালে কম্বলের নীচ থেকেই ফেসবুকে ঢুঁ মারেন রূপা। নীল-সাদার স্বপ্নময় জগৎটায় প্রবেশ করতেই গা শিউরে ওঠে তাঁর। যা দেখছে তা কি সত্যি? নাকি বেঘোর ঘুমে দুঃস্বপ্ন দেখছে সে? এক ঝটকায় শোয়া থেকে উঠে বসে রূপা। শরীরে চিমটি কাটে আলতো করে। লক্ষ্য করে, জবুথবু শীতেও কপাল বেয়ে তরতর করে ঝরছে ঘাম! স্বপ্নিল জগৎটা মূহুর্তেই বীভৎস হয়ে ধরা দেয় তাঁর কাছে।

ভিডিওটি ফুটেজটি ইতোমধ্যে সামাজিক যোগাযোগ মাধ্যমে ভাইরাল হয়ে পড়েছে৷ ভালো কিছু যত দ্রুত ছড়ায়, খারাপ কিছু ছড়ায় তারও বহুগুণ দ্রুততায়৷ আর হয়েছেও তাই। বন্ধুবান্ধব, পরিচিতজনেরা সমানে টেক্সট করে যাচ্ছেন। শেয়ারও করেছেন কেউ কেউ। ফোনের কল লিস্ট ভরে উঠেছে অসংখ্য মিসড কলে। কিন্তু রূপা জানে, ভিডিওর মেয়েটি সে নয়। তার মুখাবয়ব ও কণ্ঠস্বর হুবহু নকল করা হয়েছে। দেখতেও হয়েছে একেবারে তার মতোই। কিন্তু, পরিবার-পরিচিতজনদের বোঝাবে কীভাবে? কে বা কারা, কীভাবেই বা তৈরি করলো এমন নকল ভিডিও?

হ্যাঁ, আপনি যা ভাবছেন, এটি তাই। এটি অধুনা প্রযুক্তিরই এক বীভৎস কারসাজি। ফটোশপ কিংবা অন্যান্য এডিটিং সফটওয়্যারের সাহায্যে কেবল নিখুঁতভাবে ছবি এডিট করা গেলেও এখন প্রযুক্তির উৎকর্ষে (বা অপকর্ষে) ভিডিও এডিট করা যায় এর চেয়েও নিখুঁতভাবে, দ্রুততার সাথে। মানব দৃষ্টির পর্যায়কাল ০.১ সেকেন্ড বা ১০০ মিলি সেকেন্ড। অর্থাৎ এর চেয়ে কম সময়ে ঘটে যাওয়া কোনো দৃশ্যপট মানব চক্ষু যুগলে ধরা পড়বে না। আর এআই ভিডিও তৈরির মূল ফাঁকিটুকু এখানেই। কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি করা এসব ভিডিওতে নানা ধরনের রূপান্তর ঘটে এর থেকেও কম সময়ে। তাই খালি চোখে আসল-নকলের পার্থক্য বোঝা হয়ে পড়ে মুশকিল।

খালি চোখে কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি করা এসব ভিডিওর পার্থক্য বোঝা যায় না সহজে; ছবিসূত্রঃ The Guardian

ডিপফেক আসলে কী?

ইংরেজি DeepFake শব্দটি থেকে বাংলা ডিপফেক শব্দের উদ্ভব। যার ভাবার্থ দাঁড়ায়– গভীর-নকল, নিখুত-জাল বা নিগূঢ়-কপটতা। ডিপফেক শব্দটি ভাঙলেও গড়ে উঠে দু’টি আলাদা শব্দ। ডিপ-ফেক। প্রথম শব্দটি ডিপ-লার্নিং বা মেশিন লার্নিংয়ের উপর দন্ডায়মান। অত্যাধুনিক সফটওয়্যার ও কৃত্রিম বুদ্ধিমত্তা প্রযুক্তিকে কাজে লাগানো হয় এখানটায়। এটি বেশ জটিল ও কঠিন প্রোগ্রামিং ল্যাঙ্গুয়েজ, একাধিক স্তরে বিন্যস্ত উচ্চস্তরের প্রযুক্তি জ্ঞান।

আর দ্বিতীয় ‘ফেক’ শব্দটি নকল, জাল ইত্যাদি বিষয়কে নির্দেশ করে। ভেজাল, কারচুপি, সত্য নয় এমন সবকিছুই ফেক শব্দটি দিয়ে সংজ্ঞায়িত করা যায়। প্রযুক্তির ভাষায়– ডিপফেক মূলত কৃত্রিম বুদ্ধিমত্তার প্রয়োগের সাহায্যে সমন্বয়কৃত নকল বিষয়বস্তু। সেটা হতে পারে, ছবি, অডিও-ভিডিও বা অ্যানিমেশন প্রভৃতি।

প্রযুক্তির সাহায্যে করা কারচুপির উদাহরণ; ছবিসূত্রঃ Wikimedia Commons

যেভাবে কাজ করে

ডিপফেক মূলত অডিও-ভিডিওর নকল প্রতিরূপ, যা প্রথম দর্শনে সত্য বলেই মনে হবে। মেশিন লার্নিং এই প্রতিরূপ তৈরির প্রধান হাতিয়ার। মেশিন লার্নিংয়ের একটি কৌশলের নাম ‘জেনারেল অ্যাডভারসেরিয়াল নেটওয়ার্ক’ বা GAN। এর মাধ্যমে প্রথমত একজন ব্যক্তির হাজারখানেক অভিব্যক্তির ছবি সংগ্রহ করা হয়। বিন্যস্ত করা হয় স্বয়ংক্রিয়ভাবে। প্রস্তুত করা হয় ভিডিও সিমুলেশন। এর সাথে জুড়ে দেওয়া হয় অডিও। কিন্তু কীভাবে?

প্রথমত, পুরো প্রক্রিয়াটি সম্পন্নে ব্যবহার করা হয় দুটি ভিন্ন ধরনের অ্যালগরিদম। প্রথম অ্যালগরিদমটি ছবি, অডিও-ভিডিও ইত্যাদি জেনারেট করার কাজটি করে। চেষ্টা করে ব্যবহারকারী ঠিক যেরকম চায় সেরকম নকল প্রতিরূপ প্রদানের। অন্য অ্যালগরিদমটি প্রদানকৃত প্রতিরূপের পার্থক্য খুঁজে বের করতে সহযোগিতা করে। নির্ণয় করে বিভিন্ন ব্যবধান। কপালের ভাঁজ, মুখের খাঁজ ইত্যাদি কোনটি, কোথায়, কেমন হবে সেগুলোও সঠিকভাবে নিশ্চিত করতে সহযোগিতা করে, ঠিক যতক্ষণ না নকলটি পুরোপুরি আসলের মতো হচ্ছে।

গলার স্বর প্রদানে অবলম্বন করা হয় ভিন্ন কৌশল। কেননা, নকল ভিডিও বা অডিওতে থাকা স্বর হুবহু আসল ব্যক্তির মতো হতে হবে। এর জন্য আসল ব্যক্তির সত্যিকার স্বরের সত্যিকার নমুনা সংগ্রহ করতে হয়। ইনপুট করা হয় এআই নমুনায়। অতঃপর, কৃত্রিম বুদ্ধিমত্তা স্বরটি নিয়ে পাখির মতো কিচিরমিচির শব্দে বিশ্লেষণ করবে। প্রকৃত স্বরের কাছাকাছি হলেই থামিয়ে দিবে। প্রদান করবে স্বয়ংক্রিয় নির্দেশনা।

ভিডিও থেকে স্ক্রিনশট নিয়ে, অথবা ইন্টারনেটে সহজলভ্য ছবি থেকে ডিপফেক এর ট্রেইনিং ডেটাসেট তৈরি করা হয়; ছবিসূত্রঃ Reddit

শুরুর কথন

২০১৭ সাল। আমেরিকান সামাজিক মাধ্যম রেডিট, যারা আলোচিত সামাজিক গল্প, ছবি, অডিও, ভিডিও ইত্যাদির রেটিং করে থাকে, সর্বদাই মুখরিত থাকে ব্যবহারকারীদের বিচরণে। একদিন তাদের থ্রেটে একটি অনুরোধ আসে (রেডিটের কয়েকটি পোস্টকে একত্রে থ্রেট বলা হতো)। অনুরোধটি করেন ডিপফেক নামধারী একজন ব্যবহারকারী।

দাবি করেন, প্রোগ্রামিংয়ের মাধ্যমে বিখ্যাত ব্যক্তিদের মুখাবয়ব দুষ্টু কন্টেন্টে রূপ দিতে পারেন তিনি। অন্যান্য ব্যবহারকারীদের পাঁচকান হয়ে বিষয়টি রেডিটের বাইরেও ছড়িয়ে পড়ে দ্রুত। ঝড় উঠে আলোচনা-সমালোচনার। একসময় রেডিট তাদের পোস্টগুলো সরাতে বাধ্য হয়। কিন্তু ততদিনে মানুষজন জেনে গেছে, ছড়িয়ে পড়েছে ডিপফেক প্রযুক্তির রহস্য।

প্রায় ২৫ বছর পূর্বে, ১৯৯৭ সালে একটি গবেষণাপত্রকে ভিত্তি করে তিনি তৈরি করেন এই অ্যালগরিদম। তাই ডিপফেকের একক কোনো উদ্ভাবক নেই। এই হাত সেই হাত হয়ে ধারণাটি উঠে এসেছে। ২০১৪ সালে এসে এর পরিপূর্ণ রূপদান করেছেন ইয়ন গুডফেলো। তার তৈরি করা জেনারেটিভ অ্যাডভারসিয়াল নেটওয়ার্ক বা GAN’ই ডিপফেক প্রযুক্তির মূল চাবিকাঠি।

জেনারেটিভ অ্যাডভারসিয়াল নেটওয়ার্ক দিয়ে ডিপফেক ছবি-ভিডিও তৈরি ও সনাক্ত করা যায়; ছবিসূত্রঃ Effects of AI

ডিপফেকের উদাহরণ

চলুন, বাস্তবে ঘটে যাওয়া ডিপফেক প্রযুক্তির কিছু আলোচিত ঘটনা জেনে আসা যাক-

। ২০১৮ সালের মে মাস। তৎকালীন মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্প বেলজিয়ামের জলবায়ু পরিবর্তন নিয়ে ভিডিও বার্তা দিয়েছেন। সেখানে জলবায়ু পরিবর্তনজনিত অসচেতনতার কারণে অকথ্য ভাষায় গালিগালাজ করতে দেখা যায় তাকে। হাস্যরসাত্মক ট্রাম্পের মুখে এমন কুৎসিত মন্তব্য শোনে ক্ষোভে ফুঁসে ওঠে বেলজিয়ানরা। টুইটারে পোস্ট হতে থাকে একের পর এক টুইট।

আসলে, বেলজিয়ান বিরোধী দলের কাজ ছিলো এটি৷ জলবায়ু পরিবর্তন সম্পর্কে ইতিবাচক সিদ্ধান্ত নিতে সরকারকে প্ররোচিত করতে তারা এমনটি করেছিল। ব্যবহার করতে চেষ্টা করেছিল জনগণের সরল মানসিকতা। তারা একটি প্রোডাকশন স্টুডিওর সাহায্যে তৈরি করে এই নকল ভিডিও।

। মার্কিন প্রেসিডেন্ট বারাক ওবামা। একদিন তাকে নিয়েও একটি ভিডিও বার্তা সামাজিক যোগাযোগ মাধ্যমে ছড়িয়ে পড়ে। সেখানে দেখা যায়, তিনি সরাসরি ডোনাল্ড ট্রাম্পকে গালি দিচ্ছেন। বিষয়টি দৃষ্টি কাড়ে ন্যাটিজেনদের। যদিও পরে এর মিথ্যার সত্যতা মেলে। চলচ্চিত্র পরিচালক জর্ডান পিলি ও বাজফিড ওয়েবসাইট সম্মিলিতভাবে তৈরি করে এই ভিডিও। উদ্দেশ্য- ডিপফেক সম্পর্কে জনসাধারণকে সচেতন করা। বিতর্কিত ভিডিও সম্পর্কে প্রথমেই যেন সন্দেহ পোষণ না করে তারা।

। অভিনেত্রী ক্যারি ফিশারকে অনেকেই চিনে থাকবেন। ২০১৬ সালে স্টার ওয়্যারস সিরিজের ‘রৌগ ওয়ান’ প্রিকুয়েলটি মুক্তি পায়৷ এই সিরিজের একটি দৃশ্যে ফিশারের যুবতী বয়সের একটি দৃশ্য ধারণের প্রয়োজন পড়ে। যদিও ক্যারি ফিশার তখন ষাট বছর বয়সী বৃদ্ধা! তাই তার কম বয়সী সংস্করণ তৈরি করতে এই ডিপফেক প্রযুক্তির আশ্রয় নেওয়া হয়। উল্লেখ্য, সিনেমা মুক্তির মাস, ২৭শে ডিসেম্বরে এই জনপ্রিয় অভিনেত্রী মৃত্যুবরণ করেন।

ইলন মাস্কের একটি ডিপফেক ভিডিও; ছবিসূত্রঃ Reddit

শনাক্তকরণের উপায়?

পৃথিবীতে শতভাগ নিখুঁত বলে কিছু নেই। সময়ের ঘূর্ণাবর্তে সবকিছুর খুঁত বের হবেই, ধরা দেবে দুর্বলতা। ডিপফেকের ক্ষেত্রেও বিষয়টি শতভাগ খাঁটি। এখন কেবল সময়ের অপেক্ষা, যথোপযুক্ত গবেষণাই জানান দিবে এর আশু সমাধান। কিছু প্রতিষ্ঠান ইতোমধ্যেই এর জটিলতা সমাধানে চালাচ্ছে গবেষণা। এসবের শনাক্তকরণে ব্যবহার করছে নিজস্ব অ্যালগরিদম।

ডিপট্রেস, ভিডিও ইনভিড সফটওয়্যার, রিভার্স ইমেজ সার্চ, ভিডিও-মেটাডেটা, ফটো-মেটাডেটা, অ্যামনেস্টি ইন্টারন্যাশনালের ইউটিউব ডেটা ভিউয়ার, জার্মানির মিউনিখ বিশ্ববিদ্যালয়ের ভিজুয়াল কম্পিউটিং ল্যাবের গবেষকদলের ফেস-ফরেনসিক সফটওয়্যার অন্যতম। এসব প্রোগ্রাম ও সফটওয়্যার চালাচ্ছে ডিপফেক শনাক্তকরণে নিরলস প্রচেষ্টা।

সে দিন আসা অবধি একটু গভীরভাবে দৃষ্টি নিবদ্ধ করলেই এর থেকে কিছুটা হলেও পরিত্রাণ মিলবে। চোখে ধরা পড়বে নানাবিধ অসামঞ্জস্যতা। যেমন- আসল ও নকল মুখভঙ্গির ভিন্নতা, শারীরিক অঙ্গভঙ্গি, চোখের পাতার ওঠা-নামার সময়ের পার্থক্য, কথার সরলতা, কণ্ঠের কঠোরতা-কোমলতা, ঠোঁটের নড়াচড়া, চুলের রং ও গড়ন প্রভৃতি মৌলিক বিষয়গুলো খুঁটিয়ে দেখলেই ধরা পড়বে পার্থক্য। এগুলোতেও ধরা না গেলে ভাবতে হবে গভীরভাবে। অনুসন্ধান করতে হবে কনটেন্টের আলো-ছায়ার খেলা নিয়ে। পটভূমিতে থাকা সাবজেক্টের চেয়ে ব্যক্তি সাবজেক্ট ঝাপসা নাকি স্পষ্ট, এসবেও দিতে হবে গুরুত্ব।

অদূর ভবিষ্যতে বিভিন্ন সফটওয়্যারের সাহায্যে শনাক্ত করা যাবে এসব; ছবিসূত্রঃ Artificial islands

ভবিষ্যতের কর্মকাণ্ড

ডিপফেক, সত্যকে পুঁজি করে সৃষ্টি করা এক অভাবনীয় মিথ্যা-প্রতারণা। আর এই বিবর্ণ প্রতারণার বেশিরভাগ ভুক্তভোগী বিখ্যাত ব্যক্তিবর্গ, রাজনৈতিক নেতৃত্ব ও সেলিব্রিটি তারকারা। ফেসবুক, ইন্সটাগ্রামে তাদের শেয়ার করা ছবি, ভিডিও ইত্যাদি সংগ্রহ করে গ্রহণ করা হয় এমন ঘৃণ্য কার্যক্রম। এর অধিকাংশই হয়ে থাকে ব্ল্যাক মেইলিং বা অন্য কোনো অসৎ উদ্দেশ্য চরিতার্থকরণে।

বিজ্ঞান প্রতিনিয়ত বিবর্তিত হচ্ছে। পরিবর্তিত হচ্ছে এর গতিধারা। নেতিবাচক প্রযুক্তির বিপরীতে উন্মোচিত হচ্ছে উপযোগী প্রযুক্তিও। তাই, আশা করা যায়, অতিদ্রুতই ডিপফেক সমস্যা সমাধানে যুগান্তকারী কোনো প্রযুক্তি আসবে৷  ধ্বসে পড়বে কপটতার ভিত৷ তৈরি হবে সৃষ্টিশীল কন্টেন্টের রুচিসম্পন্ন জগৎ। নতুবা এই অপপ্রযুক্তির অগ্রযাত্রা চলতে থাকলে একসময় আসল-নকল পার্থক্য করাই হয়ে পড়বে মুশকিল!

সে দিন আসা অবধি সবাই ভার্চুয়াল জগতে সচেতন হই, সতর্ক থাকি।

সত্য প্রযুক্তির উৎকর্ষ সাধিত হোক; ছবিসূত্রঃ Bing Ai

তথ্যসূত্র:

লেখাটি 5-বার পড়া হয়েছে।

অন্যান্য উল্লেখযোগ্য লেখা

  • আদতেই কি ফিরে এসেছে ডায়ার নেকড়ে?

    আদতেই কি ফিরে এসেছে ডায়ার নেকড়ে?

  • ভুল নিদানে সন্তান হত্যার দায়ঃ একটি করুণ কেস স্টাডি

    ভুল নিদানে সন্তান হত্যার দায়ঃ একটি করুণ কেস স্টাডি

  • কমোডো ড্রাগন: উপকথার ড্রাগনদের পৃথিবীতে বিচরণ!

    কমোডো ড্রাগন: উপকথার ড্রাগনদের পৃথিবীতে বিচরণ!

  • মহাবিশ্বের জ্যামিতি ও অন্তিম পরিণতি

    মহাবিশ্বের জ্যামিতি ও অন্তিম পরিণতি

  • খাদ্যে মাইক্রোপ্লাস্টিকের উপস্থিতি: কতটা ভয়ংকর?

    খাদ্যে মাইক্রোপ্লাস্টিকের উপস্থিতি: কতটা ভয়ংকর?

  • অ্যান্ট-ম্যানের ‘মিনিচুরাইজেশন প্রযুক্তি’ কতদূর (পর্ব-২)

    অ্যান্ট-ম্যানের ‘মিনিচুরাইজেশন প্রযুক্তি’ কতদূর (পর্ব-২)


নিজের ওয়েবসাইট তৈরি করতে চান? হোস্টিং ও ডোমেইন কেনার জন্য Hostinger ব্যবহার করুন ৭৫% পর্যন্ত ছাড়ে।

আলোচনা

Leave a Reply

ই-মেইল নিউজলেটার

বিজ্ঞানের বিভিন্ন খবর সম্পর্কে আপডেট পেতে চান?

আমরা প্রতি মাসে ইমেইল নিউজলেটার পাঠাবো, মাসে একবার। নিউজলেটারে সাম্প্রতিক বিজ্ঞানের বিভিন্ন খবরাখবর নিয়ে বিশ্লেষণ থাকবে। এছাড়া বিজ্ঞান ব্লগে কি কি লেখা আসলো, কি কি কর্মযজ্ঞ চলছে, সেটার খবরও থাকবে।







Loading