ব্রেকিং:
রাজনীতির সীমানা পেরিয়ে শেখ হাসিনা কালজয়ী রাষ্ট্রনায়ক: কাদের ভুল নীতিতে ডুবছে পাকিস্তান, সঠিক নীতিতে এগোচ্ছে বাংলাদেশ চলমান ‘লকডাউন’ ২৩ মে পর্যন্ত বাড়ছে : জনপ্রশাসন প্রতিমন্ত্রী বঙ্গবন্ধুর নামে সড়ক, শেখ হাসিনার নামে বাড়ি ফিলিস্তিনে পশ্চিমবঙ্গে লকডাউন, বাংলাদেশিদের রবিবার থেকে এনওসি দেওয়া হবে শেখ হাসিনার স্বদেশ প্রত্যাবর্তনের চার দশক পূর্তিতে তথ্যচিত্র ধেয়ে আসছে শক্তিশালী ঘূর্ণিঝড় ‘টাউকটে’ তিন ওয়ানডে খেলতে ঢাকায় শ্রীলংকা ক্রিকেট দল ইসরায়েলকে সমর্থন জানিয়ে বাইডেনের ফোন ফিলিস্তিনে ইসরায়েলের হামলায় নিহত বেড়ে ১৪৯ ফের বাড়ল শিক্ষাপ্রতিষ্ঠানের ছুটি ঈদ উপলক্ষে যুদ্ধাহত মুক্তিযোদ্ধাদের প্রধানমন্ত্রীর উপহার আরো সাতদিন বাড়ছে লকডাউন, রোববার প্রজ্ঞাপন করোনায় ভাই হারালেন মমতা ব্যাংক-বিমা ও শেয়ারবাজার খুলছে কাল গাজায় ৪০ মিনিটে ৪৫০ ক্ষেপণাস্ত্র ছুড়ল ইসরায়েল স্বাস্থ্যবিধি পালনে সর্বোচ্চ সতর্কতার আহ্বান কাদেরের দেশেই টিকা উৎপাদনের ব্যবস্থা নিয়েছি: প্রধানমন্ত্রী উপকূলের ঘরে ঘরে ডিজিটাল ব্যাংক ভারতে আটকে পড়া বাংলাদেশিদের ফেরার ব্যবস্থা ঈদের পর
  • রোববার   ১৬ মে ২০২১ ||

  • জ্যৈষ্ঠ ২ ১৪২৮

  • || ০৩ শাওয়াল ১৪৪২

মৃত ব্যক্তির সঙ্গেও ‘যোগাযোগ করিয়ে দেয়’ ডিপফেক!

কুমিল্লার ধ্বনি

প্রকাশিত: ৩ মে ২০২১  

সেলেব্রিটিদের নিয়ে ভুয়া পর্নোগ্রাফিক ভিডিও ক্লিপ তৈরির বিষয়টি নতুন নয়। আর এই বিষয়টি সম্ভব হচ্ছে ‘ডিপফেক’ প্রযুক্তির মাধ্যমে।  এতে কম্পিউটারে কারসাজি করা ছবিতে এক ব্যক্তির সাদৃশ্য অন্যের ক্ষেত্রে প্রতিস্থাপনের জন্য ব্যবহৃত হয়। যেখানে দেখা যাবে—সংশ্লিষ্ট ব্যক্তি বক্তব্য রাখছেন, বক্তৃতা করছেন বা অন্যকোনও কিছু করছেন। এমনকি মৃত ব্যক্তিকেও আপনার সামনে ভার্চুয়ালি হাজির করা সম্ভব হবে।

ডিপফেক হলো কম্পিউটারে তৈরি এক ধরনের ছবি বা ভিডিও যা দেখলে ধরা যাবেন না সেটি নকল। ২০১৭ সালে ইউনিভার্সিটি অব ওয়াশিংটনের একদল গবেষক ডিপফেকের মাধ্যমে সাবেক মার্কিন প্রেসিডেন্ট বারাক ওবামার একটি ভিডিও বক্তব্য তৈরি করে। সেটা দেখে বোঝার উপায় থাকে না ভিডিওটি সত্যি নয়।

এ সফটওয়্যার মূলত ছবি কাজে লাগিয়ে নতুন ভিডিও তৈরি করতে পারে, যাতে ভিডিওতে থাকা ব্যক্তির মুখভঙ্গি, ঠোঁট বা অন্যান্য অঙ্গের নড়াচড়াও মেলানো যায়। এরপর থেকে এ প্রক্রিয়া আরও সহজ হয়ে গেছে। বিষয়টা এখন একটাই সহজ হয়েছে যে, শুধুমাত্র কয়েকটি ছবি দিয়েই ডিপফেক ভিডিও তৈরি করা যায়।

আশঙ্কার কথা, ছবি বা ভিডিওকে বিকৃত ও কৃত্রিম বুদ্ধিমত্তার সাহায্যে নিখুঁতভাবে তৈরি করে হুবহু আসলের মতো বলে প্রচার করা হচ্ছে। যেকেউ কারও আক্রোশের শিকার হতে পারেন এই প্রযুক্তির অপব্যবহারে। সংশ্লিষ্ট খাতের বিশেষজ্ঞরা মনে করেন, ভালো কাজের জন্য এই প্রযুক্তির কথা ভাবা হলেও এটা যেকোনো সময় বড় ধরনের বিপদ ডেকে আনতে পারে।

মানিব্রেইন এর প্রধান নির্বাহী সে ইয়ং জাং বলেন, আমরা একটি পরিবারের মৃত সদস্যকে পুনরায় তৈরি করতে পারবো, যাকে তারা আর দেখতে পান না। এআইকে ব্যক্তির কণ্ঠ, মুখভঙ্গি ও অভিজ্ঞতা শিখতে দেয়ার মাধ্যমে মৃত ব্যক্তির সাথেও যোগাযোগ করতে পারবে।

তবে সম্ভাবনাময় এই প্রযুক্তির ৯০ শতাংশই খারাপ কাজে ব্যবহার হচ্ছে বলে জানান সে ইয়ং জাং।  এর প্রমাণ দিয়েছে জার্মানির গবেষণা প্রতিষ্ঠান ডিপট্রেস। প্রতিষ্ঠানটি ডিপফেক চিহ্নিত করতে প্রযুক্তিগত সমাধান দেয়।  প্রতিষ্ঠানটি  ২০১৯ সালের প্রথম ৭ মাসে ১৪ হাজার ৬৭৮টি ডিপফেক চিহ্নিত করে। এসবের মধ্যে ৯৬ শতাংশ ছিল অসম্মতিসূচক অশ্লীল কনটেন্ট, যা একচেটিয়া নারী শরীরকে চিহ্নিত করেছে।

এত দিন ডিপফেক ঠিকভাবে শনাক্ত করার প্রযুক্তি সহজলভ্য ছিল না। এ ক্ষেত্রে এগিয়ে এসেছে বিশ্বের বৃহত্তম সফটওয়্যার নির্মাতা প্রতিষ্ঠান মাইক্রোসফট। ডিপফেক শনাক্ত করতে বিশেষ টুল বা প্রোগ্রাম তৈরি করেছে মাইক্রোসফট।