ডিপফেকের শিকার রশ্মিকা মান্দানার পর এবার ক্যাটরিনা কাইফের ছবি

Published By: Khabar India Online | Published On:

সোশ্যাল মিডিয়ায় ক্রমশ ভাইরাল হচ্ছে ডিপফেকের আরেকটি নমুনা। আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) ভিত্তিক ডিপফেক টেকনোলজির নতুন শিকার হলেন জনপ্রিয় অভিনেত্রী ক্যাটরিনা কাইফ।

আসন্ন ছবি টাইগার থ্রি’র একটি দৃশ্যে কারচুপি করে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে একটি নতুন সংস্করণ তৈরি করেছে। ক্যাটরিনাকে তোয়ালের বদলে লো-কাট হোয়াইট টপে দেখা যায়, যা সম্পূর্ণ নকল। আগে অভিনেত্রী রশ্মিকা মান্দানা ডিফফেকের শিকার হয়েছিলেন। তাঁর লিফটের একটি ডিপফেক ভিডিও ভাইরাল হয়েছে।

আরও পড়ুন -  গুগল সুখবর দিয়েছেন এআই ব্যবহারকারীদের জন্য

জেনারেটিভ এআই এ ধরনের ভুয়ো এবং এডিট করা ডিপফেক ফটো-ভিডিও তৈরি করা খুব সহজ করে দিয়েছে। যে কেউ এক মুহূর্তের মধ্যে এ ধরনের জাল কনটেন্ট তৈরি করতে পারে।

রশ্মিকার এডিট করা ভিডিওর পর সুপারস্টার অমিতাভ বচ্চনও ডিপফেক প্রযুক্তির আশঙ্কা প্রকাশ করেছেন। রশ্মিকা নিজেও সোশ্যাল মিডিয়ায় পোস্ট করেছেন, এটিকে বেশ ভীতিজনক বলে বর্ণনা করেছেন। এই মুহূর্তে ক্যাটরিনার তরফ থেকে কোনও প্রতিক্রিয়া পাওয়া যায়নি।

আরও পড়ুন -  Katrina Kaif: দু‘বছরে নেই সুখবর, মা হতে না পারায় ক্যাটরিনার উপরে চাপ ভিকির পরিবারের!

ডিপফেক প্রযুক্তির অপব্যবহার নিয়ে প্রতিনিয়ত অভিযোগ হচ্ছে। শুধু সেলিব্রিটি বা রাজনীতিবিদরাই নন, সাধারণ মানুষও শিকার হতে পারেন। এমন পরিস্থিতিতে আমাদের নিজেদের রক্ষার জন্য কিছু সতর্কতামূলক পদক্ষেপ নিতে হবে।

আমরা এ ধরনের প্রযুক্তির ফাঁদে না পড়ি। জেনে নেওয়া যাক ডিপফেক প্রযুক্তি কী।

ডিপফেক মানে কৃত্রিম বুদ্ধিমত্তা (এআই) থেকে তৈরি ছবি, ভিডিও বা অডিও। ডিপফেক কনটেন্ট একেবারে নকল হলেও দেখতে একেবারে বাস্তব। এর মাধ্যমে একজনের পরিবর্তে অন্য কাউকে ফিট করতে পারবেন। মানুষের পক্ষে আসল ও নকলের মধ্যে পার্থক্য করা খুব কঠিন।

আরও পড়ুন -  মুকেশ অম্বানির নতুন ব্যবসা, ছেলের বিয়ে মিটতেই বড় চমক!

ডিপফেকের মতো ঘটনা যদি আপনার সঙ্গে ঘটে, সঙ্গে সঙ্গে পুলিশ বা সাইবার সেলের কাছে অভিযোগ দায়ের করুন। তথ্যপ্রযুক্তি আইন ২০০০ অনুযায়ী, কারও পরিচয় বিকৃত করে অনলাইনে কোনও কিছু পোস্ট করা অপরাধ। এমনকি শাস্তি হতে পারে।