ডিপফেকের শিকার রশ্মিকা মান্দানার পর এবার ক্যাটরিনা কাইফের ছবি

Published By: Khabar India Online | Published On:

সোশ্যাল মিডিয়ায় ক্রমশ ভাইরাল হচ্ছে ডিপফেকের আরেকটি নমুনা। আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) ভিত্তিক ডিপফেক টেকনোলজির নতুন শিকার হলেন জনপ্রিয় অভিনেত্রী ক্যাটরিনা কাইফ।

আসন্ন ছবি টাইগার থ্রি’র একটি দৃশ্যে কারচুপি করে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে একটি নতুন সংস্করণ তৈরি করেছে। ক্যাটরিনাকে তোয়ালের বদলে লো-কাট হোয়াইট টপে দেখা যায়, যা সম্পূর্ণ নকল। আগে অভিনেত্রী রশ্মিকা মান্দানা ডিফফেকের শিকার হয়েছিলেন। তাঁর লিফটের একটি ডিপফেক ভিডিও ভাইরাল হয়েছে।

আরও পড়ুন -  মাকে হারানোর শোক কাটিয়ে কাজে ফিরলেন তারকা সাদিয়া ইসলাম মৌ

জেনারেটিভ এআই এ ধরনের ভুয়ো এবং এডিট করা ডিপফেক ফটো-ভিডিও তৈরি করা খুব সহজ করে দিয়েছে। যে কেউ এক মুহূর্তের মধ্যে এ ধরনের জাল কনটেন্ট তৈরি করতে পারে।

রশ্মিকার এডিট করা ভিডিওর পর সুপারস্টার অমিতাভ বচ্চনও ডিপফেক প্রযুক্তির আশঙ্কা প্রকাশ করেছেন। রশ্মিকা নিজেও সোশ্যাল মিডিয়ায় পোস্ট করেছেন, এটিকে বেশ ভীতিজনক বলে বর্ণনা করেছেন। এই মুহূর্তে ক্যাটরিনার তরফ থেকে কোনও প্রতিক্রিয়া পাওয়া যায়নি।

আরও পড়ুন -  Indian Railway হোলি উপলক্ষে স্পেশাল ট্রেন দিচ্ছে

ডিপফেক প্রযুক্তির অপব্যবহার নিয়ে প্রতিনিয়ত অভিযোগ হচ্ছে। শুধু সেলিব্রিটি বা রাজনীতিবিদরাই নন, সাধারণ মানুষও শিকার হতে পারেন। এমন পরিস্থিতিতে আমাদের নিজেদের রক্ষার জন্য কিছু সতর্কতামূলক পদক্ষেপ নিতে হবে।

আমরা এ ধরনের প্রযুক্তির ফাঁদে না পড়ি। জেনে নেওয়া যাক ডিপফেক প্রযুক্তি কী।

ডিপফেক মানে কৃত্রিম বুদ্ধিমত্তা (এআই) থেকে তৈরি ছবি, ভিডিও বা অডিও। ডিপফেক কনটেন্ট একেবারে নকল হলেও দেখতে একেবারে বাস্তব। এর মাধ্যমে একজনের পরিবর্তে অন্য কাউকে ফিট করতে পারবেন। মানুষের পক্ষে আসল ও নকলের মধ্যে পার্থক্য করা খুব কঠিন।

আরও পড়ুন -  "ডিজিটাল মিডিয়া বিপ্লব: প্রযুক্তি, সোশ্যাল মিডিয়া এবং গোপনীয়তার ভবিষ্যত অন্বেষণ"

ডিপফেকের মতো ঘটনা যদি আপনার সঙ্গে ঘটে, সঙ্গে সঙ্গে পুলিশ বা সাইবার সেলের কাছে অভিযোগ দায়ের করুন। তথ্যপ্রযুক্তি আইন ২০০০ অনুযায়ী, কারও পরিচয় বিকৃত করে অনলাইনে কোনও কিছু পোস্ট করা অপরাধ। এমনকি শাস্তি হতে পারে।