ডিপফেকের শিকার রশ্মিকা মান্দানার পর এবার ক্যাটরিনা কাইফের ছবি

Published By: Khabar India Online | Published On:

সোশ্যাল মিডিয়ায় ক্রমশ ভাইরাল হচ্ছে ডিপফেকের আরেকটি নমুনা। আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) ভিত্তিক ডিপফেক টেকনোলজির নতুন শিকার হলেন জনপ্রিয় অভিনেত্রী ক্যাটরিনা কাইফ।

আসন্ন ছবি টাইগার থ্রি’র একটি দৃশ্যে কারচুপি করে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে একটি নতুন সংস্করণ তৈরি করেছে। ক্যাটরিনাকে তোয়ালের বদলে লো-কাট হোয়াইট টপে দেখা যায়, যা সম্পূর্ণ নকল। আগে অভিনেত্রী রশ্মিকা মান্দানা ডিফফেকের শিকার হয়েছিলেন। তাঁর লিফটের একটি ডিপফেক ভিডিও ভাইরাল হয়েছে।

আরও পড়ুন -  Kylian Mbappe: এমবাপ্পের কাছে ক্ষমা চাইলো, পিএসজি

জেনারেটিভ এআই এ ধরনের ভুয়ো এবং এডিট করা ডিপফেক ফটো-ভিডিও তৈরি করা খুব সহজ করে দিয়েছে। যে কেউ এক মুহূর্তের মধ্যে এ ধরনের জাল কনটেন্ট তৈরি করতে পারে।

রশ্মিকার এডিট করা ভিডিওর পর সুপারস্টার অমিতাভ বচ্চনও ডিপফেক প্রযুক্তির আশঙ্কা প্রকাশ করেছেন। রশ্মিকা নিজেও সোশ্যাল মিডিয়ায় পোস্ট করেছেন, এটিকে বেশ ভীতিজনক বলে বর্ণনা করেছেন। এই মুহূর্তে ক্যাটরিনার তরফ থেকে কোনও প্রতিক্রিয়া পাওয়া যায়নি।

আরও পড়ুন -  Gold Price Today: সোনার দাম স্থিতিশীল, লক্ষ্মীবারের সকালের বাজার

ডিপফেক প্রযুক্তির অপব্যবহার নিয়ে প্রতিনিয়ত অভিযোগ হচ্ছে। শুধু সেলিব্রিটি বা রাজনীতিবিদরাই নন, সাধারণ মানুষও শিকার হতে পারেন। এমন পরিস্থিতিতে আমাদের নিজেদের রক্ষার জন্য কিছু সতর্কতামূলক পদক্ষেপ নিতে হবে।

আমরা এ ধরনের প্রযুক্তির ফাঁদে না পড়ি। জেনে নেওয়া যাক ডিপফেক প্রযুক্তি কী।

ডিপফেক মানে কৃত্রিম বুদ্ধিমত্তা (এআই) থেকে তৈরি ছবি, ভিডিও বা অডিও। ডিপফেক কনটেন্ট একেবারে নকল হলেও দেখতে একেবারে বাস্তব। এর মাধ্যমে একজনের পরিবর্তে অন্য কাউকে ফিট করতে পারবেন। মানুষের পক্ষে আসল ও নকলের মধ্যে পার্থক্য করা খুব কঠিন।

আরও পড়ুন -  মুকেশ অম্বানির নতুন ব্যবসা, ছেলের বিয়ে মিটতেই বড় চমক!

ডিপফেকের মতো ঘটনা যদি আপনার সঙ্গে ঘটে, সঙ্গে সঙ্গে পুলিশ বা সাইবার সেলের কাছে অভিযোগ দায়ের করুন। তথ্যপ্রযুক্তি আইন ২০০০ অনুযায়ী, কারও পরিচয় বিকৃত করে অনলাইনে কোনও কিছু পোস্ট করা অপরাধ। এমনকি শাস্তি হতে পারে।