ডিপফেকের শিকার রশ্মিকা মান্দানার পর এবার ক্যাটরিনা কাইফের ছবি

Published By: Khabar India Online | Published On:

সোশ্যাল মিডিয়ায় ক্রমশ ভাইরাল হচ্ছে ডিপফেকের আরেকটি নমুনা। আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) ভিত্তিক ডিপফেক টেকনোলজির নতুন শিকার হলেন জনপ্রিয় অভিনেত্রী ক্যাটরিনা কাইফ।

আসন্ন ছবি টাইগার থ্রি’র একটি দৃশ্যে কারচুপি করে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে একটি নতুন সংস্করণ তৈরি করেছে। ক্যাটরিনাকে তোয়ালের বদলে লো-কাট হোয়াইট টপে দেখা যায়, যা সম্পূর্ণ নকল। আগে অভিনেত্রী রশ্মিকা মান্দানা ডিফফেকের শিকার হয়েছিলেন। তাঁর লিফটের একটি ডিপফেক ভিডিও ভাইরাল হয়েছে।

আরও পড়ুন -  "ডিজিটাল মিডিয়া বিপ্লব: প্রযুক্তি, সোশ্যাল মিডিয়া এবং গোপনীয়তার ভবিষ্যত অন্বেষণ"

জেনারেটিভ এআই এ ধরনের ভুয়ো এবং এডিট করা ডিপফেক ফটো-ভিডিও তৈরি করা খুব সহজ করে দিয়েছে। যে কেউ এক মুহূর্তের মধ্যে এ ধরনের জাল কনটেন্ট তৈরি করতে পারে।

রশ্মিকার এডিট করা ভিডিওর পর সুপারস্টার অমিতাভ বচ্চনও ডিপফেক প্রযুক্তির আশঙ্কা প্রকাশ করেছেন। রশ্মিকা নিজেও সোশ্যাল মিডিয়ায় পোস্ট করেছেন, এটিকে বেশ ভীতিজনক বলে বর্ণনা করেছেন। এই মুহূর্তে ক্যাটরিনার তরফ থেকে কোনও প্রতিক্রিয়া পাওয়া যায়নি।

আরও পড়ুন -  ভারত সরকার, Facebook সহ সোশ্যাল মিডিয়া সংস্থাকে সতর্ক করল

ডিপফেক প্রযুক্তির অপব্যবহার নিয়ে প্রতিনিয়ত অভিযোগ হচ্ছে। শুধু সেলিব্রিটি বা রাজনীতিবিদরাই নন, সাধারণ মানুষও শিকার হতে পারেন। এমন পরিস্থিতিতে আমাদের নিজেদের রক্ষার জন্য কিছু সতর্কতামূলক পদক্ষেপ নিতে হবে।

আমরা এ ধরনের প্রযুক্তির ফাঁদে না পড়ি। জেনে নেওয়া যাক ডিপফেক প্রযুক্তি কী।

ডিপফেক মানে কৃত্রিম বুদ্ধিমত্তা (এআই) থেকে তৈরি ছবি, ভিডিও বা অডিও। ডিপফেক কনটেন্ট একেবারে নকল হলেও দেখতে একেবারে বাস্তব। এর মাধ্যমে একজনের পরিবর্তে অন্য কাউকে ফিট করতে পারবেন। মানুষের পক্ষে আসল ও নকলের মধ্যে পার্থক্য করা খুব কঠিন।

আরও পড়ুন -  গুগল সুখবর দিয়েছেন এআই ব্যবহারকারীদের জন্য

ডিপফেকের মতো ঘটনা যদি আপনার সঙ্গে ঘটে, সঙ্গে সঙ্গে পুলিশ বা সাইবার সেলের কাছে অভিযোগ দায়ের করুন। তথ্যপ্রযুক্তি আইন ২০০০ অনুযায়ী, কারও পরিচয় বিকৃত করে অনলাইনে কোনও কিছু পোস্ট করা অপরাধ। এমনকি শাস্তি হতে পারে।