ডিপফেকের শিকার রশ্মিকা মান্দানার পর এবার ক্যাটরিনা কাইফের ছবি

Published By: Khabar India Online | Published On:

সোশ্যাল মিডিয়ায় ক্রমশ ভাইরাল হচ্ছে ডিপফেকের আরেকটি নমুনা। আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) ভিত্তিক ডিপফেক টেকনোলজির নতুন শিকার হলেন জনপ্রিয় অভিনেত্রী ক্যাটরিনা কাইফ।

আসন্ন ছবি টাইগার থ্রি’র একটি দৃশ্যে কারচুপি করে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে একটি নতুন সংস্করণ তৈরি করেছে। ক্যাটরিনাকে তোয়ালের বদলে লো-কাট হোয়াইট টপে দেখা যায়, যা সম্পূর্ণ নকল। আগে অভিনেত্রী রশ্মিকা মান্দানা ডিফফেকের শিকার হয়েছিলেন। তাঁর লিফটের একটি ডিপফেক ভিডিও ভাইরাল হয়েছে।

আরও পড়ুন -  মুকুট কেড়ে নেওয়া হলো বিজয়ী ঘোষণার পরেও

জেনারেটিভ এআই এ ধরনের ভুয়ো এবং এডিট করা ডিপফেক ফটো-ভিডিও তৈরি করা খুব সহজ করে দিয়েছে। যে কেউ এক মুহূর্তের মধ্যে এ ধরনের জাল কনটেন্ট তৈরি করতে পারে।

রশ্মিকার এডিট করা ভিডিওর পর সুপারস্টার অমিতাভ বচ্চনও ডিপফেক প্রযুক্তির আশঙ্কা প্রকাশ করেছেন। রশ্মিকা নিজেও সোশ্যাল মিডিয়ায় পোস্ট করেছেন, এটিকে বেশ ভীতিজনক বলে বর্ণনা করেছেন। এই মুহূর্তে ক্যাটরিনার তরফ থেকে কোনও প্রতিক্রিয়া পাওয়া যায়নি।

আরও পড়ুন -  হলুদ শাড়ি ফিনফিনে তিন সুন্দরীর গায়ে, আগুন এর মতন জ্বলে উঠলেন এই ভাবে

ডিপফেক প্রযুক্তির অপব্যবহার নিয়ে প্রতিনিয়ত অভিযোগ হচ্ছে। শুধু সেলিব্রিটি বা রাজনীতিবিদরাই নন, সাধারণ মানুষও শিকার হতে পারেন। এমন পরিস্থিতিতে আমাদের নিজেদের রক্ষার জন্য কিছু সতর্কতামূলক পদক্ষেপ নিতে হবে।

আমরা এ ধরনের প্রযুক্তির ফাঁদে না পড়ি। জেনে নেওয়া যাক ডিপফেক প্রযুক্তি কী।

ডিপফেক মানে কৃত্রিম বুদ্ধিমত্তা (এআই) থেকে তৈরি ছবি, ভিডিও বা অডিও। ডিপফেক কনটেন্ট একেবারে নকল হলেও দেখতে একেবারে বাস্তব। এর মাধ্যমে একজনের পরিবর্তে অন্য কাউকে ফিট করতে পারবেন। মানুষের পক্ষে আসল ও নকলের মধ্যে পার্থক্য করা খুব কঠিন।

আরও পড়ুন -  AD-1 Missile: এডি-১ ক্ষেপণাস্ত্রের সফল উৎক্ষেপণ ভারতের

ডিপফেকের মতো ঘটনা যদি আপনার সঙ্গে ঘটে, সঙ্গে সঙ্গে পুলিশ বা সাইবার সেলের কাছে অভিযোগ দায়ের করুন। তথ্যপ্রযুক্তি আইন ২০০০ অনুযায়ী, কারও পরিচয় বিকৃত করে অনলাইনে কোনও কিছু পোস্ট করা অপরাধ। এমনকি শাস্তি হতে পারে।