আহমেদ ইয়াসীর আবরার

রিসার্চ অফিসার, ডিসমিসল্যাব
This article is more than 3 months old
সন্তান কালো হওয়ায় স্ত্রীকে সন্দেহ করছে স্বামী এমন দাবিতে এআই ভিডিও সত্যি বলে গণমাধ্যমে প্রচার - ফ্যাক্টচেক

যেভাবে বুঝবেন বাচ্চা কালো বলে স্ত্রীকে সন্দেহের ভিডিও এআই দিয়ে তৈরি

আহমেদ ইয়াসীর আবরার

রিসার্চ অফিসার, ডিসমিসল্যাব

সন্তান কালো হওয়ায় স্ত্রীকে সন্দেহ করছে স্বামী এমন দাবিতে একটি ভিডিও পোস্ট হতে দেখা গেছে বাংলাদেশের একটি গণমাধ্যমের অফিসিয়াল ফেসবুক পেজ থেকে। প্রায় একই ধরনের ভিডিও পোস্ট করতে দেখা গেছে ফেসবুকের বিভিন্ন ব্যবহারকারীকেও। ডিসমিসল্যাবের ফ্যাক্টচেকে দেখা যায়, বাংলাদেশি গণমাধ্যমের পোস্ট করা ভিডিও কৃত্রিম বুদ্ধিমত্তার (এআই) সাহায্যে তৈরি।

এর আগে এ ধরনের অন্যান্য ভিডিওগুলোকেও কৃত্রিম বুদ্ধিমত্তার সাহায্যে তৈরি বলে প্রতিবেদন প্রকাশ করেছে বাংলাদেশসহ বিভিন্ন দেশের একাধিক ফ্যাক্টচেকিং প্রতিষ্ঠান। একাধিক ফ্যাক্টচেকিং প্রতিষ্ঠানের যাচাইয়ের পরও বিভ্রান্ত হচ্ছে গণমাধ্যম এবং সামাজিক মাধ্যম ব্যবহারকারীরা। বিশেষজ্ঞরা বলছে প্রযুক্তির উন্নয়নের সঙ্গে এআই নির্মিত ভিডিও আরও বিশ্বাসযোগ্য হয়ে উঠলেও, এখনো এগুলোকে চিহ্নিত করতে পারার উপায় আছে। নতুন বিভিন্ন পন্থার পরেও আমাদের ফিরে যেতে হবে বারবার যাচাইয়ের পুরোনো উপায়; কে? কোথায়? কেন?– এই প্রশ্নে।

“বাচ্চা কালো হওয়ায় স্ত্রীকে সন্দেহ” – এমন ক্যাপশনে একটি ভিডিও পোস্ট হতে দেখা যায় বাংলাদেশের গণমাধ্যম দৈনিক যায়যায়দিনের অফিসিয়াল ফেসবুক পেজ থেকে। ভিডিওর হ্যাশট্যাগে লেখা “ইমোশনাল স্টোরি” এবং “ফ্যামিলি ড্রামা।” হাসপাতালের কেবিন সদৃশ একটি রুমে দুই সদ্যোজাত শিশু কোলে এক নারী শুয়ে কান্না করছেন। তার পাশে দাঁড়িয়ে এক পুরুষ। চিৎকার করে তিনি বলছেন, “কী হচ্ছে এসব? এরা কি আমার বাচ্চা? আমি জানি না। এরা আমার সন্তান না।”

ভিডিওর ১৬ সেকেন্ডে আরেকটি দৃশ্যপট সামনে আসে যেখানে প্রেক্ষাপট একই তবে মানুষগুলো বদলে গেছে। এখানেও দেখা যাচ্ছে একজন নারী দুটি শিশুকে কোলে নিয়ে কাঁদছেন এবং একজন ব্যক্তি পাশে চিৎকার করে বলছেন, “কি হচ্ছে এইসব? এরা কি আমার বাচ্চা? হে খোদা! হে খোদা! তাদের চুল কালো, তাদের গায়ের রঙ কালো। কী চলছে এইসব? তারা আমার সন্তান না।”

ভিডিওগুলোর সূত্র যাচাই করতে গেলে ডিসমিসল্যাবের সামনে আসে একটি টিকটক অ্যাকাউন্ট। অ্যাকাউন্টের নাম ব্রেইডেড। ব্রেইডেড থেকে আপলোড হওয়া ৩১ অক্টোবরের একটি ভিডিওর সঙ্গে বাংলাদেশে ছড়িয়ে পড়া ভিডিওটির হুবহু মিল পাওয়া যায়। ভিডিওটির ক্যাপশনে লেখা, “যখন ডিএনএ-র সাথে বাচ্চারা মিলে না 😱😂 ডেলিভারি রুমে চরম বিশৃঙ্খলা! এক তরুণ দম্পতির যমজ সন্তান হয়েছে… কিন্তু কেউ কল্পনা করতে পারেনি ওরা দেখতে এত ব্যতিক্রম হবে। বাবা তো বিশ্বাসই করতে পারছে না, মায়ের চোখে জল, আর ডাক্তার কোনোমতে পরিস্থিতি সামলানোর চেষ্টা করছে। বাস্তব প্রতিক্রিয়া, চরম বিভ্রান্তি— যেন সরাসরি কোনো কমেডি সিনেমা থেকে নেওয়া! 🎥👶।” টিকটকের পোস্টটির নিচে দেখা যায়, বলে দেওয়া হয়েছে “ক্রিয়েটর দ্বারা এআই হিসেবে চিহ্নিত”।

টিকটকের নীতিতে “ক্রিয়েটর দ্বারা এআই হিসেবে চিহ্নিত” সম্পর্কে বলা হয়েছে, “এই লেবেলটি সেই কন্টেন্টের ওপর দেখা যায়, যা সম্পূর্ণভাবে এআই (কৃত্রিম বুদ্ধিমত্তা) দ্বারা তৈরি করা হয়েছে অথবা এআই ব্যবহার করে উল্লেখযোগ্যভাবে সম্পাদনা করা হয়েছে বলে জানাচ্ছেন ক্রিয়েটর।” অর্থাৎ, ভিডিওটিকে নির্মাতা/ক্রিয়েটর নিজেই এআই হিসেবে চিহ্নিত করেছে।

দ্বিতীয় ভিডিও যাচাই করতে গেলে ডিসমিসল্যাবের সামনে আসে ভারতীয় ফ্যাক্টচেকিং প্রতিষ্ঠান ফ্যাক্টলির একটি ভিডিও প্রতিবেদন। প্রতিবেদনটিতে যে ভিডিওটি যাচাই করা হয়েছে তা দৈনিক যায়যায়দিনের পোস্ট করা ভিডিওর দ্বিতীয় অংশের সঙ্গে পুরোপুরি মিলে যায়। ফ্যাক্টলির প্রতিবেদনে অনুযায়ী এটি সামাজিক মাধ্যমে ছড়িয়েছিল সত্য ভিডিও হিসেবে।

কেউ কেউ নতুন গল্প জুড়েছে যে সন্তান জন্ম দেওয়ার পূর্বে এই নারী ভারত ভ্রমণে গিয়েছিলেন। প্রতিবেদনে বলা হয় এই ভিডিও পোস্ট করা হয়েছিল ব্রেইডেড নামের টিকটক অ্যাকাউন্ট থেকে। যদিও ডিসমিসল্যাবের যাচাইয়ের সময় ভিডিওটি আর অ্যাকাউন্টে খুঁজে পাওয়া যায়নি। তবে ইউআরএলইবার্ড নামের একটি সাইটে ব্রেইডেড পোস্ট করা এই ভিডিওটি পাওয়া যায়। ইউআরএলইবার্ড হলো একটি থার্ড পার্টি ওয়েবসাইট যা লোকজনকে টিকটকে লগইন না করেই টিকটক ভিডিও, প্রোফাইল, হ্যাশট্যাগ এবং ট্রেন্ড দেখতে দেয়। অর্থাৎ, এই ভিডিওটিও ব্রেইডেড থেকে পোস্ট করা হয়েছিল এই ব্যাপারে নিশ্চিত হওয়া যায়।

ফ্যাক্টলির প্রতিবেদনে বলা হয়, ভিডিওটি একটি এআই ডিটেকশন টুলের মাধ্যমে যাচাই করে আরও নিশ্চিত হওয়া যায় যে এটি এআইয়ের সাহায্যে তৈরি করা হয়েছে।

ব্রেইডেড পেজটি বিশ্লেষণ করলে প্রায় একই স্ক্রিপ্ট এবং প্রেক্ষাপটে একাধিক ভিডিও পাওয়া যায় (, , )। এই অ্যাকাউন্টে ২১টি ভিডিওর একটি অ্যালবামও দেখা যায়, যার নাম “ডেলিভারি রুম।”

একই ভিডিও ইতঃপূর্বে সামাজিক মাধ্যমে ছড়িয়ে পড়লে যাচাই করে ফ্যাক্টচেকিং প্রতিষ্ঠান বুম বাংলাদেশ। বুম বাংলাদেশের প্রতিবেদনেও এই ভিডিওগুলোকে এআই নির্মিত হিসেবে চিহ্নিত করা হয়। ৭ নভেম্বরে ফ্যাক্টচেক প্রতিবেদন প্রকাশ করার পরও দৈনিক যায়যায়দিন কোনো সতর্কবার্তা ছাড়াই এই ভিডিও নিজেদের ফেসবুক পেজে পোস্ট করে। যদিও পরবর্তীতে ভিডিওটি তারা সরিয়ে নেয়।

এআই ভিডিও চিনব কী করে?

বিবিসির সিনিয়র প্রযুক্তি সাংবাদিক থমাস জার্মেইনের প্রকাশিত একটি প্রতিবেদনে এআই ভিডিওকে চিহ্নিত করার উপায় বলা হয়েছে। তিনি লিখেছেন, “এআই ভিডিওগুলো দেখতে খারাপ হবেই, এমন না। সেরা এআই টুলগুলো সুন্দর, পরিশীলিত ক্লিপ তৈরি করতে পারে। আর, নিম্ন মানের ক্লিপ মানেই যে সেগুলো এআই দিয়ে বানানো, এমনও না।”

একই প্রতিবেদনে ক্যালিফোর্নিয়া বিশ্ববিদ্যালয়, বার্কলে-এর কম্পিউটার সায়েন্স অধ্যাপক হ্যানি ফরিদের বরাতে বলা হয়, “গুগল-এর ভিও এবং ওপেনএআই-এর সোরার মতো বহুল ব্যবহৃত টেক্সট-টু-ভিডিও জেনারেটরগুলো এখনো ছোটখাটো অসঙ্গতি (কন্টেন্টে) রেখে দেয়। তবে ছয়টি আঙুল বা অর্থহীন লেখার মতো অসঙ্গতি নয়। এর চেয়েও অনেক সূক্ষ্ম অসঙ্গতি।”

প্রতিবেদনে বলা হয়, তিনটি বিষয়কে গুরুত্বের সঙ্গে বিবেচনা করতে হবে। রেজোলিউশন (চকচকে), গুণমান এবং দৈর্ঘ্য। অধিকাংশ ক্ষেত্রে এআই নির্মিত ভিডিওগুলো খুবই সংক্ষিপ্ত হয়। সামাজিক মাধ্যমে আমরা যে শর্ট ভিডিওগুলো দেখি (সাধারণত ৩০ থেকে ৬০ সেকেন্ডের), তার চেয়েও ছোট। এর মূল কারণ হলো এআইয়ের মাধ্যমে ভিডিও তৈরি করা ব্যয়বহুল। তাছাড়া ভিডিও যত বড় হবে, অসঙ্গতি প্রকাশিত হওয়ার সম্ভাবনাও বাড়তে থাকে। ফলে ছোট ছোট একাধিক ভিডিও জোড়া দেওয়ার প্রবণতা লক্ষ্য করা যায়।

অন্য দুটি উপাদান সম্পর্কে প্রতিবেদনে বলা হয়, রেজোলিউশন এবং গুণমান একে অপরের সঙ্গে সম্পর্কিত হলেও ভিন্ন। রেজোলিউশন দ্বারা একটি ছবির পিক্সেলের সংখ্যা বা আকারকে বোঝানো হয়, যেখানে কম্প্রেশনের মাধ্যমে বিশদ বিবরণ ফেলে দিয়ে ভিডিও ফাইলের আকার কমিয়ে দেওয়া হয়। এর ফলে প্রায়ই ব্লক-আকৃতির প্যাটার্ন এবং ঝাপসা কিনারা তৈরি হয়। এটি করা হয় যাতে ভিডিওর মান কমিয়ে ফেলার কারণে মানুষ ছোট বিবরণগুলো স্পষ্টভাবে বুঝতে না পারে এবং এই ধরনের ভিডিও সহজে বিশ্বাসযোগ্যও হয়ে উঠে। এটি একটি সাধারণ কৌশল।

এআই প্রতিনিয়ত উন্নত হচ্ছে এবং খালি চোখে সূক্ষ্ম অসঙ্গতিগুলো দেখা না যাওয়ার সম্ভাবনাও তৈরি হচ্ছে প্রতিনিয়ত। যেকোনো নতুন পরামর্শই পরক্ষণে অকার্যকর হয়ে যেতে পারে প্রযুক্তিতে নতুন সংযোজনের কারণে। থমাস জার্মেইন বলছেন, “আপনি কখনোই কোনো লেখা দেখে কেউ সেটা লিখেছে বলেই সেটা সত্য বলে ধরে নেন না। যদি কোনো প্রশ্ন জাগে, তবে আপনি তথ্যের উৎস যাচাই করতে যান। ভিডিও এবং ছবির ব্যাপারটা আগে আলাদা ছিল, কারণ আগে ওগুলো নকল বা বিকৃত করা কঠিন ছিল। কিন্তু এখন আর সে দিন নেই। এখন একমাত্র যে বিষয়টি গুরুত্বপূর্ণ তা হলো, একটি কন্টেন্ট কোথা থেকে এসেছে, কে এটি পোস্ট করেছে, এর প্রেক্ষাপট কী এবং এটি কোনো বিশ্বাসযোগ্য উৎস দ্বারা যাচাই করা হয়েছে কি না।”

আরো কিছু লেখা