স্পোর্টস ডেস্ক
প্রকাশ : ২১ ফেব্রুয়ারি ২০২৪, ১১:৩২ এএম
অনলাইন সংস্করণ

শচীনের পর এবার ডিপফেকের শিকার কোহলি

বিরাট কোহলি। ছবি : সংগৃহীত
বিরাট কোহলি। ছবি : সংগৃহীত

প্রায়ই ডিপফেক বা ভুয়া ভিডিওর শিকার হন বিনোদন জগতের তারকারা। এই তালিকায় যুক্ত হচ্ছেন ক্রীড়াবিদরাও। দিন কয়েক আগে এমন ডিপফেক বা ভুয়া ভিডিওর শিকার হয়েছিলেন ভারতের কিংবদন্তি শচীন টেন্ডুলকার। এমনকি তার একমাত্র মেয়ে সারা টেন্ডুলকারও। এবার একই তালিকায় যুক্ত হয়েছেন বিরাট কোহলি।

কিন্তু প্রশ্ন হচ্ছে কী এই ডিপফেক। গত এক বছর বহুল আলোচিত বিষয় এই প্রযুক্তি। ডিপফেক হলো এমন এক প্রযুক্তি, যার মাধ্যমে নকল ভিডিও তৈরি হয়। সহজ ভাষায় বলা যায় কৃত্রিম বুদ্ধিমত্তা প্রয়োগ করে একজনের মুখের সঙ্গে অন্য কোনো ব্যক্তির শরীর জুড়ে দিয়ে ভিডিও বানানো হয়।

এ প্রযুক্তি দিয়ে হুবহু নকল ভিডিও বানানো সম্ভব। মেশিন লার্নিং প্রয়োগের মাধ্যমে দিন দিন প্রযুক্তিটি আরও উন্নত হচ্ছে এবং নিখুঁতভাবে নকল ভিডিও বানানো সম্ভব হচ্ছে। প্রথম প্রথম বিশ্বের নামকরা তারকা ও রাজনৈতিক ব্যক্তিরা ডিপফেক প্রযুক্তি দিয়ে তৈরি নকল ভিডিও দ্বারা হেনস্তার শিকার হন।

সম্প্রতি সামাজিক যোগাযোগমাধ্যমে একটি ভিডিও আবারও সামনে এনেছে ডিপফেক প্রযুক্তিকে। বর্তমান সময়ের অন্যতম সেরা ক্রিকেটার বিরাট কোহলির একটি ভিডিও ভাইরাল হয়। সেখানে দেখা যায়, ভারতীয় দলের সাবেক অধিনায়ক একটি অনলাইন বেটিং অ্যাপের বিজ্ঞাপন করছেন। যা দেখে অবাক হন তার অনেক ভক্ত, অনুরাগী থেকে শুরু করে বিশ্বের সব ক্রিকেটপ্রেমীরা।

সেই ভিডিওতে দাবি করা হয় অনলাইন বেটিং অ্যাপ ব্যবহার করে খুব কম সময়ে প্রচুর অর্থ উপার্জন করা যাবে। অবশ্য এই ভুয়া ভিডিও ছড়িয়ে পড়ার পরে তীব্র প্রতিবাদে সরব হয়েছেন কোহলি। এর আগে প্রায় একই রকম শচীন টেন্ডুলকারের ভিডিও ছড়িয়ে পড়ে সামাজিক যোগাযোগমাধ্যমে। এরপর নিজের শক্ত অবস্থান তুলে ধরেন শচীন।

তিনি বলেন, ‘প্রযুক্তি ব্যবহার করে এমন ভুয়া ভিডিও বানানো হয়েছে। তাই এই ভিডিও দেখলে অবশ্যই তার বিরুদ্ধে রিপোর্ট করুন। কোনো অভিযোগ জমা পড়লে তার বিরুদ্ধে যথাযথ পদক্ষেপ নিতে হবে সোশ্যাল মিডিয়া প্ল্যাটফর্মগুলোকে। তাদের পক্ষ থেকে কোনো ব্যবস্থা না নিলে এমন ডিপফেক ভিডিও আরও বেশি ছড়িয়ে পড়বে।’

আর্টিফিশিয়াল ইন্টেলিজেন্স-এআই ব্যবহার করে ডিপফেক বা ভুয়া ভিডিও তৈরি অংশ দিন দিন বাড়ছে। ডিপফেক ভিডিও শনাক্ত করার মতো কোনো প্রযুক্তি এখনো আসেনি। কাজেই সাধারণ মানুষ পক্ষে ডিপফেক ও অরজিনাল ভিডিওর পার্থক্য বুঝা অনেক কঠিন।

কালবেলা অনলাইন এর সর্বশেষ খবর পেতে Google News ফিডটি অনুসরণ করুন

মন্তব্য করুন

  • সর্বশেষ
  • জনপ্রিয়

টানা ৩০ দিন প্রতি রাতে জিরা ভেজানো পানি পান করলে কী হয়?

যে মাত্রায় ভূমিকম্প হয়েছে তার তুলনায় ‘ইনজুরড’ বেশি : স্বাস্থ্য উপদেষ্টা

মোটরসাইকেল না দেয়ায় বাড়িতে পেট্রোল ও ককটেল বিস্ফোরণ যুবকের

পাকিস্তানে বয়লার বিস্ফোরণে ১৫ শ্রমিক নিহত

অ্যাশেজ সিরিজ : ১০০ বছরে এমন ঘটনা এবারই প্রথম ঘটল

আগামী নির্বাচনে ছাত্র-জনতা দুর্নীতিবাজদের লাল কার্ড দেখাবে : গোলাম পরওয়ার

সপ্তাহের সেরা চাকরির বিজ্ঞপ্তি, পদ সংখ্যা ৩ হাজারেরও বেশি

ভূমিকম্পে ৪ জেলায় নিহত ৭, আহত দুই শতাধিক

সেনাকুঞ্জে পৌঁছেছেন খালেদা জিয়া

৩০ মিনিটে ৯ কোটি টাকা লুট

১০

আইপিএল নিলামে বাংলাদেশের ৩ ক্রিকেটার

১১

ভূমিকম্প শেষে নারায়ণগঞ্জ বন্দরে তুলার গুদামে আগুন

১২

নাকে আইফোনের তার ঢুকিয়ে ভয়াবহ প্রতারণা

১৩

কিবরিয়া হত্যায় আটক ব্যক্তির মৃত্যু, ব্যাখ্যা দিল ডিএমপি

১৪

যে ভূমিকম্পে পরিবর্তন হয়ে যায় পৃথিবীর ঘূর্ণনগতি

১৫

ভূমিকম্পে দুর্ঘটনা সম্পর্কিত যোগাযোগের জন্য জরুরি নিয়ন্ত্রণ কক্ষ চালু

১৬

প্রধান উপদেষ্টার সঙ্গে তিন বাহিনীর প্রধানদের সাক্ষাৎ

১৭

নরসিংদীতে ভূমিকম্পে শিশুসহ নিহত ২, আহত শতাধিক

১৮

রাতে ফোন চার্জে রেখে ঘুমালে কি ফোনে আগুন লাগতে পারে?

১৯

ফুটবল মাঠে আবারও মুখোমুখি ব্রাজিল-আর্জেন্টিনা

২০
X