মো. তৌহিদুল ইসলাম

রিসার্চ অফিসার, ডিসমিসল্যাব
This article is more than 2 months old
মানুষের মতো মনে হলেও আসলে এআই, ভোট দেবে দাঁড়িপাল্লায়

মানুষের মতো মনে হলেও আসলে এআই, ভোট দেবে দাঁড়িপাল্লায়

মো. তৌহিদুল ইসলাম

রিসার্চ অফিসার, ডিসমিসল্যাব

ত্রয়োদশ জাতীয় সংসদ নির্বাচন ঘিরে জমে উঠেছে নির্বাচনে অংশগ্রহণকারী রাজনৈতিক দলগুলোর প্রচার। ভোটারদের সমর্থন পেতে দলগুলো বেছে নিচ্ছে প্রচারণার বিভিন্ন ধরন ও মাধ্যম। সেই তালিকায় এবারে যুক্ত হয়েছে কৃত্রিম বুদ্ধিমত্তা বা এআই। সামাজিক মাধ্যমে অবিকল মানুষের রূপে হাজির হওয়া এআই তাদের পরিচয় দিচ্ছে সাধারণ ভোটার হিসেবে।

এআই চরিত্রগুলো বলছে তারা ভোট দেবে। শুধু তাই নয়, অন্যদেরও তাদের পছন্দের মার্কায় ভোট দিতে আহ্বান জানাচ্ছে। প্রতিপক্ষ রাজনৈতিক দল বা দলের নেতাদের নিয়ে বিষোদগার করতেও দেখা গেছে এসব এআই চরিত্রকে। সাধারণ ব্যবহারকারীদের অনেকেই এদের বাস্তব বা আসল ভেবে বিভিন্ন মন্তব্য করছেন কমেন্ট বক্সে।

সামাজিক মাধ্যমে এ ধরনের কার্যক্রম চালানো এমনই এক ফেসবুক পেজের নাম উত্তরবঙ্গ টেলিভিশন। এই প্রতিবেদন লেখা পর্যন্ত পেজটির ফলোয়ার সংখ্যা  ৯০ হাজারের বেশি। “হিউম্যান হেলপ” নামে পেজটি প্রথম তৈরি করা হয় ২০২১ সালের ৩০ অক্টোবর। একই দিনে যা পরিবর্তিত হয়েছে “হেল্প মিশন” নামে। ৩০ ডিসেম্বর তা আবার বদলে গেছে “হম বলো”তে। শেষমেশ ২০২২ সালের ৭ জুলাই পেজটির নাম পরিবর্তন করে রাখা হয় “উত্তরবঙ্গ টেলিভিশন।” পেজটির ট্রান্সপারেন্সি অনুযায়ী সাত জন অ্যাডমিন বাংলাদেশ থেকে এটি পরিচালনা করছেন।

পেজটি থেকে আসন্ন ত্রয়োদশ জাতীয় সংসদ নির্বাচনে জয়পুরহাট-১ আসনের বাংলাদেশ জামায়াতে ইসলামীর মনোনীত প্রার্থী মোঃ ফজলুর রহমান সাঈদের পক্ষে প্রচারণা করতে দেখা যায় (, , )।  জয়পুরহাট প্রতিনিধির বরাতে দেয়া ২০২৫ সালের ২৫ ডিসেম্বরে দেওয়া একটি পোস্টে লেখা হয়, “জয়পুরহাট ১ সদর-পাঁচবিবি আসনের সংসদ সদস্য প্রার্থী মোঃ ফজলুর রহমান সাঈদ সম্প্রতি এক বিবৃতিতে দৃঢ়তার সাথে ঘোষণা করেছেন যে, দেশের নেতা দেশেই ছিলেন, দেশেই আছেন এবং ইনশাআল্লাহ দেশেই থাকবেন।” পোস্টে যুক্ত ছবিতেও ফজলুর রহমান সাঈদের পক্ষে প্রচারণামূলক বার্তা দেখা যায়।

  • ডিসমিস্ল্যাব ফ্যাক্টচেক: নির্বাচনী প্রচারনায় জামায়াতে ইসলামীর এআই ব্যবহার
  • ডিসমিস্ল্যাব ফ্যাক্টচেক: নির্বাচনী প্রচারনায় জামায়াতে ইসলামীর এআই ব্যবহার
  • ডিসমিস্ল্যাব ফ্যাক্টচেক: নির্বাচনী প্রচারনায় জামায়াতে ইসলামীর এআই ব্যবহার

ডিসমিসল্যাবের বিশ্লেষণে দেখা যায়, পেজটিতে এআই দিয়ে বানানো সবচেয়ে পুরোনো ভিডিওটি পোস্ট করা হয় ২০২৫ সালের ১৫ ডিসেম্বর। পোস্টের ক্যাপশনে লেখা আছে, “এবার ক্ষমতায় জামায়াতে ইসলাম? জনমত জরিপ ও মানুষের প্রত্যাশা!” ভিডিওতে এক বৃদ্ধ নারী বলছেন, “কোথায় ভোট দিবেন? আমি জামাত ইসলামে ভোট দিমু। নৌকায়ও আমি ভোট দিমু না।” এতটুকু বলার পর অন্যপাশ থেকে কাউকে জিজ্ঞেস করতে শোনা যায়, “কেন ভোট দিবেন না?” উত্তরে বৃদ্ধ নারী বলেন, “আমি দিমু না। যেহেতু শাসন নাই, কোনো আচার নাই, কোনো আদালত নাই। জামায়াতে ইসলাম পাশ করলে কী করবে আপনাকে। জামায়াতে ইসলাম পাশ করলে দেশে শান্তি আসবে, তারা খুবই ভালো।” 

ভিডিওটির দৈর্ঘ্য ছিল ২৩ সেকেন্ড। এই প্রতিবেদন লেখা পর্যন্ত ভিডিওটি আড়াই শর বেশি শেয়ার হয়েছে। এখন পর্যন্ত দেখা হয়েছে ১০ হাজারের বেশি। প্রতিক্রিয়া জানানো হয়েছে হাজারের অধিক। 

যাচাইয়ে দেখা যায়, ভিডিওর তিন সেকেন্ডে দেখানো বৃদ্ধার ঠোঁট ও নাকের মাঝামাঝি জায়গার চামড়ার ভাজ বা গঠনের সঙ্গে, একই ভিডিওর ১৮ সেকেন্ডে দেখানো চামড়ার ভাজ বা গঠনের হুবহু মিল নেই। পুরো ভিডিওতেই কথা বলার সময় চামড়ার ভাজে অস্বাভাবিক পরিবর্তন ও মসৃণতা লক্ষ্য করা যায়।

পেজটিতে এআই দিয়ে বানানো প্রথম ভিডিও পোস্ট করা হয় ২০২৫ সালের ১৫ ডিসেম্বরে।

পেছনের পোস্টারে থাকা বাংলা অক্ষরের লেখাগুলো বিশ্লেষণ করে দেখা যায়, সেগুলো কোনো অর্থবোধক শব্দ বা বাক্য তৈরি করে না। এছাড়া, পুরো ভিডিওতে কথা বলার সময় একবারের জন্যেও চোখের পলক ফেলেননি তিনি। যা এআই দিয়ে বানানো ভিডিও বা ডিপফেক ভিডিওর উল্লেখযোগ্য লক্ষণ বলে মনে করেন বিশেষজ্ঞরা

ভিডিওটি গুগলের এআই কন্টেন্ট শনাক্তকারী টুলস সিন্থ-আইডিতে আপলোড করে জানা গেছে, ২৩ সেকেন্ডের ভিডিওটিতে শুরু থেকে শেষ পর্যন্ত ডিজিটাল ওয়াটারমার্ক শনাক্ত করা হয়েছে। কনটেন্টটির অডিও এবং ভিডিও দুটোই এআই ব্যবহার করে তৈরি বা এডিট করা হয়েছে।

একইদিনে (১৫ ডিসেম্বর) পেজটি থেকে আরও চারটি (, , , ) ভিডিও পোস্ট করা হয়। সবগুলো ভিডিওতেই রাজনৈতিক দল বাংলাদেশ জামায়াতে ইসলামীর প্রশংসা করতে শোনা যায় বিভিন্ন বয়সের এআই চরিত্রকে। তারা সবাই জামায়াতে ইসলামীর দাঁড়িপাল্লায় ভোট দেবে বলে জানায়।

বিশ্লেষণে দেখা যায়, এই প্রতিবেদন লেখা পর্যন্ত পেজটি থেকে এ ধরনের মোট ৩৫টি ভিডিও পোস্ট করা হয়েছে। এছাড়া প্রতিপক্ষ রাজনৈতিক দলকে নিয়ে দুইটি হাস্য-রসাত্মক কার্টুন কনটেন্টও পোস্ট করা হয়েছে। গত ১৫ ডিসেম্বরের আগে পেজটি থেকে বাংলাদেশ জামায়াতে ইসলামীর বিভিন্ন রাজনৈতিক কর্মকাণ্ড নিয়ে নিয়মিত পোস্ট করা হতো।

একই নাম ও লোগো সম্বলিত একটি ইউটিউব চ্যানেলও খুঁজে পাওয়া গেছে, যেখানে ফেসবুক পেজে পোস্ট হওয়া বেশকিছু ভিডিও আপলোড করা হয়েছে। চ্যানেলটির মোট সাবস্ক্রাইবার সংখ্যা সাত শর অধিক।

বাংলাদেশ জামায়াতে ইসলামীকে প্রসংশা করে কথা বলতে শোনা যায় বিভিন্ন বয়সের এআই চরিত্রকে।

উল্লেখ্য, “উত্তরবঙ্গ টেলিভিশন” থেকে প্রথম এমন এআই দিয়ে বানানো ভিডিও আপলোড দেওয়ার তিনদিন আগে (১২ ডিসেম্বর) নির্বাচনের তফসিল ঘোষণা করা হয়। প্রধান নির্বাচন কমিশনার তফসিল ঘোষণার দিনই নির্বাচনে কৃত্রিম বুদ্ধিমত্তার ব্যবহার নিয়ে উদ্বেগ প্রকাশ করেন।

এআই “প্রতিবন্ধীর” সাথে বিএনপির প্রতারণা

জামায়াতের পক্ষে শুধু সমর্থনই নয়, প্রতিপক্ষ রাজনৈতিক দল ও দলের নেতাদের বিরুদ্ধে মিথ্যা দাবি, নেতিবাচক ও সমালোচনামূলক মন্তব্য করতেও শোনা যায় এআই চরিত্রগুলোকে। 

“উত্তরবঙ্গ টেলিভিশন” পেজটির সবচেয়ে বেশি ভিউ হওয়া ভিডিওতেও বাংলাদেশ জাতীয়তাবাদী দলকে (বিএনপি) নিয়ে সমালোচনামূলক মন্তব্য করতে দেখা যায় এক ফল বিক্রেতাকে। এই প্রতিবেদন লেখা পর্যন্ত ভিডিওটি ৮০ লাখের বেশি ভিউ হয়েছে। তিন শ ফিটে বিএনপির একটি আয়োজনকে ঘিরে তাকে বিভিন্ন সমালোচনা করতে শোনা যায়। ভিডিওর দৈর্ঘ্য ছিল ২৮ সেকেন্ড।

এই প্রতিবেদন লেখা পর্যন্ত এতে তিন লাখের বেশি প্রতিক্রিয়া দেখা গেছে। শেয়ার করা হয়েছে ৭০ হাজারের বেশি বার। এছাড়া প্রায় ৬ হাজারের বেশি মানুষ মন্তব্য করেছেন। একজন লিখেছেন “আপনার কথা ১০০% রাইট কিন্তু আমাদের দুর্ভাগ্য জনগণ ভালো খারাপ বুঝেনা।” আরেক ব্যবহারকারী লিখেছেন, “একজন ফল বিক্রেতা যদি রাস্তায় দাঁড়িয়ে গঠনমূলক সত্য কথা বলতে পারে কেন দলীয় লোকেরা পারেনা ? এটা কি শিক্ষা এবং জ্ঞানের অভাব, মোটেও না। এটা হল নৈতিকতার অভাব এবং শক্তি ও ক্ষমতার প্রভাব।” কয়েকজন ব্যবহারকারী ভিডিওটি এআই দিয়ে বানানো বলেও মন্তব্য করেছেন। 

যাচাইয়ে দেখা যায়, ভিডিওর ৫ সেকেন্ডে একটি তিন চাকার বাস রাস্তা দিয়ে চলে যাচ্ছে। যার সামনের অংশ দেখতে অনেকটা সিএনজির মতো। আবার ভিডিওর আরেক অংশে দেখা যায়, একটি দুই চাকার রিকশা এগিয়ে যাচ্ছে। যিনি সেটি চালাচ্ছেন তার চোখ নেই ও চেহারা অস্বাভাবিকভাবে বিকৃত।

এছাড়া, ফল বিক্রেতার পেছনে থাকা সাইনবোর্ডের বাংলা অক্ষরগুলোও কোনো অর্থবোধক শব্দ বা বাক্য নির্দেশ করে না।

এটিও গুগলের এআই কন্টেন্ট শনাক্তকারী টুলস সিন্থ-আইডিতে আপলোড করলে জানা যায়, এর অডিও এবং ভিডিও দুটোই এআই ব্যবহার করে তৈরি বা এডিট করা হয়েছে। গুগলের জেমিনি মডেল সিন্থ আইডি জানায়, ২৩ সেকেন্ডের ভিডিওটি শুরু থেকে শেষ পর্যন্ত কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি। এছাড়া কনটেন্ট শনাক্তকরণ টুল ডিপফেক-ও-মিটারের যাচাইয়ে দেখা গেছে ভিডিওটি এআই দিয়ে তৈরির সম্ভাবনা প্রবল।

বাদ যাননি বাংলাদেশ জাতীয়তাবাদী দলের বর্তমান চেয়ারম্যান তারেক রহমানও। লন্ডন থেকে দেশে ফেরার একদিন আগে তাকে কটুক্তি করেও পেজটি থেকে একটি এআই ভিডিও পোস্ট করা হয়। ক্যাপশনে লেখা হয়, “২৫ তারিখে খাম্বা লিডার আসছে! খাম্বা চুরি ও কম্পন থেকে বাঁচতে এই ব্যক্তিকে দেখুন।” এই প্রতিবেদন লেখা পর্যন্ত ভিডিওটির ভিউ হয়েছে প্রায় ২০ লাখ। শেয়ার হয়েছে আট হাজার বারের বেশি। ভিডিওটি অনেকেই সত্য ভেবে নিন্দা জানিয়েছেন। কয়েকজন ব্যবহারকারী এ ভিডিও এআই দিয়ে বানানো বলেও মন্তব্য করেছেন।

প্রতিপক্ষ রাজনৈতিক দল ও দলের নেতাদের বিরুদ্ধে মিথ্যা দাবি, নেতিবাচক ও সমালোচনামূলক মন্তব্য করতেও শোনা যায় এআই চরিত্রগুলোকে।

যাচাইয়ে দেখা যায়, ভিডিওতে বলা কথার সঙ্গে দাঁড়িয়ে থাকা ব্যক্তির ঠোটের নড়াচড়ার মিল নেই। ভিডিওর দৃশ্য অনেক স্পষ্ট হলেও দাঁড়িয়ে থাকা ওই ব্যক্তির চোখের দিকটা পুরোপুরি অন্ধকার।

ভিডিওটি এআই দিয়ে বানানো কিনা তা জেমিনাইর সিন্থ-আইডি মডেলে পরীক্ষা করা হয়। এতে দেখা যায় ভিডিওর দৃশ্য ও অডিও দুটোই এআই দিয়ে সম্পাদিত বা বানানো। এছাড়াও, কনটেন্ট শনাক্তকরণ টুল ডিপফেক-ও-মিটার বলছে ভিডিওটি এআই দিয়ে তৈরির সম্ভাবনা প্রায় শতভাগ।

গত ১০ জানুয়ারি পোস্ট হওয়া ১৮ সেকেন্ডের একটি ভিডিওতে একজন প্রতিবন্ধী নারীকে বলতে শোনা যায়, “আমি একজন প্রতিবন্ধী মানুষ, বিএনপি নেতারা আমাকে প্রতিবন্ধী ভাতা করে দিতে চেয়ে টাকা নিয়েছে। কিন্তু তারা আমাকে কার্ডটি করে দেয়নি। এখন টাকা ফেরত চাইলে আমাকে হুমকি দেয়। আবার বলে টাকা দিসি এই কথা যেন কেউ না জানে। আমি এই ঘুষখোর বিএনপি দলকে ভোট দিব না। ভোট যদি দিতেই হয় দাঁড়িপাল্লা মার্কাতেই দেব ইনশাল্লাহ।” 

এই প্রতিবেদন লেখা পর্যন্ত ভিডিওটি ৮ লাখের বেশি ভিউ হয়েছে। ৪০ হাজারের অধিক প্রতিক্রিয়া দেখা গেছে। শেয়ার করা হয়েছে ১৯ হাজারের বেশি বার। এছাড়া পোস্টটিতে এক হাজারের বেশি মন্তব্য করা হয়েছে। এআই চরিত্রটিকে একজন বোন সম্বোধন করে লিখেছেন, “বোন তোমাকে ধন্যবাদ আললাহ তোমাকে হেফাজত করুন আমিন আমিন আমিন দাঁড়ি পাল্লা হবে ইনশাআল্লাহ।” আরেকজন লিখেছেন, “মাশাল্লাহ বোন মাশাল্লাহ জিতবে এবার দাঁড়িপাল্লা ইনশাল্লাহ আল্লাহ তোমাকে হেফাজত করুক দোয়া করি।” এছাড়া কয়েকটি মন্তব্যে ভিডিওটি এআই দিয়ে বানানো বলেও দাবি করেছেন অনেক।

গত ১২ জানুয়ারি ডিজিটাল অনুসন্ধানমূলক সংবাদমাধ্যম “দ্য ডিসেন্ট” -এর ওয়েবসাইটে প্রকাশিত এক ফ্যাক্টচেক প্রতিবেদনে নিশ্চিত করা হয়, প্রতিবন্ধী ভাতার নামে বিএনপি নেতাদের প্রতারণা দাবিতে প্রচারিত এই ভিডিওটি এআই দিয়ে তৈরি। 

‘আমরা হিন্দুরা দাঁড়িপাল্লায় ভোট দিমু’

জামায়াতে ইসলামীর পক্ষে হিন্দু ধর্মাবলম্বী ভোটারদের অকুণ্ঠ সমর্থন রয়েছে দেখাতেও বানানো হয়েছে এআই ভিডিও। যেখানে “হিন্দু ধর্মাবলম্বী” হিসেবে উপস্থাপন করা হয়েছে বিভিন্ন এআই চরিত্রদের। এমন একাধিক চরিত্র আগামী নির্বাচনে দাঁড়িপাল্লায় ভোট দেবেন বলে মনস্থির করার কথা জানিয়েছেন। 

গত ৮ জানুয়ারি এ ধরনের একটি ভিডিও আপলোড হতে দেখা যায় “উত্তরবঙ্গ টেলিভিশন” থেকে। ক্যাপশনে লেখা হয়েছে, “আমরা হিন্দুরা এবার দাঁড়িপাল্লাতেই ভোট দেবো: কেন বিএনপিকে বর্জন?” ভিডিওতে ধুতি পরা এক বয়স্ক লোককে বলতে শোনা যায়, “আমরা হিন্দুরা দাঁড়িপাল্লায় ভোট দিমু। বিএনপি মিথ্যা আশ্বাস দিয়ে ভোট চাইতেছে। যতই আমাদের লোভ দ্যাহাক না কেন, আমরা বিএনপির ফাঁদে পা দিচ্ছি না এবার। একমাত্র দাঁড়িপাল্লা সরকার হইলেই দ্যাশ শান্তিতে থাকবে, এছাড়া সম্ভব নয়। বিএনপি তো নিজেদের মধ্যেই মারামারি করে, নিজেদের মধ্যেই দশটা গ্রুপ। তারা কীভাবে দেশের শান্তি ফিরিয়ে নিয়ে আসবে। বরং ক্ষমতায় তারা গেলে ক্ষমতার বলে সাধারণ মানুষকে মানুষ মনে করবে না তারা।”

জামায়াতে ইসলামীর পক্ষে হিন্দু ধর্মাবলম্বী ভোটারদের অকুণ্ঠ সমর্থন রয়েছে দেখাতে বানানো হয়েছে এআই ভিডিও।

ভিডিওটির দৈর্ঘ্য ছিল ২০ সেকেন্ড। এই প্রতিবেদন লেখা পর্যন্ত ভিডিওটি ১৬ লাখের বেশিবার দেখা হয়েছে। এক লাখের বেশি প্রতিক্রিয়া ছিল। শেয়ার হয়েছে ২০ হাজারের বেশি বার। পোস্টটিতে দেড় হাজারের বেশি কমেন্ট করা হয়েছে। কমেন্টে একজন লিখেছেন, “সঠিক কথা বলছেন কাকা। চান্দাবাজ মুক্ত ধান্দাবাজ মুক্ত দেশ গড়তে বাংলাদেশ জামাত ইসলামের বিকল্প নেই।” আরেকজন লিখেছেন, “রাইট কাকা অনেক সুন্দর কথা বলেছেন আপনাকে ধন্যবাদ আমরাও হায়াতে বেঁচে থাকলে ইনশাআল্লাহ দাড়িপাল্লায় ভোট দেবো।” এআই চরিত্রকে সম্বোধন করে একজন মন্তব্য করেছেন, “একদম সঠিক কথাই বলেছেন দাদা। আপনাকে অনেক ধন্যবাদ সাহসী ভূমিকার জন্য। সাবধান থাকতে হবে।”

যাচাইয়ে দেখা যায়, ভিডিওর এক অংশে জামায়াতের জনৈক হিন্দু সমর্থকের কপালে ভাজ কম, আবার আরেক অংশে বেশি। হাত নাড়ানোর সময় একটি আঙুল কিছুটা বিকৃত হয়ে যেতে দেখা যায়। এছাড়া অধিকাংশ ক্ষেত্রেই ভিডিওতে উচ্চারিত শব্দের সঙ্গে তার ঠোঁটের ভঙ্গিমার মিল নেই।

ভিডিওটি প্রসঙ্গে জেমিনির সিন্থ-আইডি বলছে, এটিতেও গুগলের সিন্থ-আইডি ওয়াটারমার্ক পাওয়া গেছে। অর্থাৎ, এটিও কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি। এছাড়া কনটেন্ট শনাক্তকরণ টুল ডিপফেক-ও-মিটার দিয়ে যাচাই করে দেখা গেছে ভিডিওটি এআই দিয়ে তৈরির সম্ভাবনা প্রবল।

নির্বাচনে এআই এর প্রভাব বেড়ে চলেছে

দক্ষিণ-পূর্ব এশিয়ার নির্বাচনী ব্যবস্থা নিয়ে ‘ফ্রন্টিয়ার্স ইন পলিটিক্যাল সায়েন্স’ জার্নালে ২০২৫ সালের অক্টোবরে একটি গবেষণা প্রকাশিত হয়েছে। গবেষক শাফিনদ্রি ও তার দল সেখানে দেখিয়েছেন, এআই দিয়ে তৈরি ভিডিওগুলো নির্বাচনের সুষ্ঠু পরিবেশের জন্য বড় হুমকি হয়ে উঠছে। এসব ভিডিও ব্যবহার করে রাজনৈতিক নেতাদের নামে এমন সব ভুয়া গল্প ছড়ানো হচ্ছে, যা ভোটাররা সত্য বলে ধরে নিচ্ছেন। এতে মুহূর্তেই জনমত প্রভাবিত হওয়ার ঝুঁকি তৈরি হয়েছে। গবেষণাটি থেকে আরও জানা যায়, ফিলিপাইন ও থাইল্যান্ডের নির্বাচনে এআই চালিত ‘বট’ ব্যবহার করে প্রতিপক্ষের বিরুদ্ধে পরিকল্পিতভাবে ভুয়া তথ্য ছড়ানো হয়েছে।

এআই দিয়ে বানানো এসব ভিডিও বাংলাদেশের ভোটারদের প্রভাবিত করতে পারে কি না, এ বিষয়ে জানতে চাওয়া হয়েছিল যুক্তরাষ্ট্রের সেন্টার ফর এক্সপেরিমেন্টাল হিউম্যানিটিজ বার্ড কলেজের ভিজিটিং অধ্যাপক ফাহমিদুল হকের কাছে। তার মতে, “ভোটারদের বিভ্রান্ত হওয়ার সুযোগ তো আছেই। বিশেষ করে যদি কেউ শুধু একটি কনটেন্ট দেখে, সুযোগ আছে। ফলে, এতে ভোটারদের প্রভাবিত হওয়ার সুযোগ আছে এবং এটি আশঙ্কার বিষয়ও বটে।”  

যা বলছে নির্বাচন কমিশনের নীতিমালা 

গত ১২ ডিসেম্বর প্রধান নির্বাচন কমিশনার (সিইসি) এ এম এম নাসির উদ্দিন জাতির উদ্দেশ্যে ভাষণ দেওয়ার সময় নির্বাচনে কৃত্রিম বুদ্ধিমত্তার (এআই) ব্যবহার ও অসত্য তথ্য ছড়ানো বিষয়ে কথা বলেন। 

তিনি বলেন, “বর্তমান সময় সামাজিক যোগাযোগ মাধ্যমে বিভিন্ন বিভ্রান্তিমূলক তথ্য ছড়ানো হয়ে থাকে। বিশেষ করে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে অসত্য তথ্য ও অপতথ্যের বিস্তার দিনকে দিন বেড়ে চলেছে। প্রতিপক্ষ দল ও প্রার্থীকে হেয় করার পাশাপাশি নারীদের প্রতি বিদ্বেষমূলক প্রচারণা আমাদের ঐতিহ্যকে ক্ষুণ্ন করে এবং নির্বাচনকে কলুষিত করে। দেশের প্রচলিত আইন অনুযায়ী এসব রোধে প্রয়োজনীয় ব্যবস্থা গ্রহণ করা হবে। আপনাদের প্রতি আমার বিশেষ অনুরোধ অসত্য এবং অসৎ উদ্দেশ্যে প্রচারিত কোন তথ্যে কান দিবেন না, গ্রহণ করবেন না। মনে রাখবেন অসত্য তথ্য শেয়ার করাও শাস্তিযোগ্য অপরাধ।”

এছাড়াও, জাতীয় সংসদ নির্বাচনে রাজনৈতিক দল ও প্রার্থীর আচরণ বিধিমালা, ২০২৫-এ কৃত্রিম বুদ্ধিমত্তা বা এআই-এর অপব্যবহার রোধে কিছু নির্দেশনা যুক্ত করেছে নির্বাচন কমিশন। এতে ‘সামাজিক যোগাযোগ মাধ্যমে নির্বাচনি প্রচারণা’ সংক্রান্ত ১৬ নম্বর ধারায় এ বিষয়ে বিস্তারিত উল্লেখ করা হয়েছে।

এছাড়া, জাতীয় সংসদ নির্বাচনে রাজনৈতিক দল ও প্রার্থীর আচরণ বিধিমালা, ২০২৫-এ কৃত্রিম বুদ্ধিমত্তা বা এআই-এর অপব্যবহার রোধে কিছু নির্দেশনা যুক্ত করেছে নির্বাচন কমিশন। এতে ‘সামাজিক যোগাযোগ মাধ্যমে নির্বাচনি প্রচারণা’ সংক্রান্ত ১৬ নম্বর ধারায় এ বিষয়ে বিস্তারিত উল্লেখ করা হয়েছে।

বিধিমালার ১৬(খ) উপধারায় স্পষ্টভাবে বলা হয়েছে, “প্রচার-প্রচারণাসহ নির্বাচন সংশ্লিষ্ট কোনো বিষয়ে অসৎ উদ্দেশ্যে কৃত্রিম বুদ্ধিমত্তা (AI) ব্যবহার করা যাবে না।”

বিষয়টি আরও বিশদভাবে ব্যাখ্যা করা হয়েছে ১৬(ছ) উপধারাতে। সেখানে বলা হয়েছে, রাজনৈতিক দল, প্রার্থী কিংবা তাদের পক্ষে অন্য কোনো ব্যক্তি ভোটারদের বিভ্রান্ত করার জন্য অথবা নারী-পুরুষ নির্বিশেষে কোনো প্রার্থী বা ব্যক্তির চরিত্র হনন ও সুনাম নষ্ট করার উদ্দেশ্যে এআই ব্যবহার করতে পারবেন না। বিশেষ করে সামাজিক যোগাযোগ মাধ্যম বা অন্য কোনো মাধ্যমে সাধারণভাবে বা সম্পাদনা (Edit) করে কিংবা কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে কোনো মিথ্যা, বিভ্রান্তিকর, পক্ষপাতমূলক, বিদ্বেষপূর্ণ, অশ্লীল, কুরুচিপূর্ণ এবং মানহানিকর কোনো কনটেন্ট (আধেয়) তৈরি, প্রকাশ, প্রচার ও শেয়ার করাকে এই বিধিমালার মাধ্যমে সম্পূর্ণ নিষিদ্ধ করা হয়েছে। 

সামাজিক মাধ্যমে প্রচারিত এ ধরণের ভিডিওর ক্ষেত্রে নির্বাচন কমিশন কী ধরনের পদক্ষেপ নিতে পারে জানতে চেয়ে প্রতিষ্ঠানটির একাধিক কর্মকর্তার সঙ্গে যোগাযোগের চেষ্টা করে ডিসমিসল্যাব। তবে এ বিষয়ে নির্বাচন কমিশনের পক্ষ থেকে কোনো উত্তর পাওয়া যায়নি। 

যেভাবে চেনা যাবে এআই ভিডিও

প্রযুক্তির উন্নতির সঙ্গে সঙ্গে কৃত্রিম বুদ্ধিমত্তা বা এআই দিয়ে তৈরি ভিডিও এতটাই নিখুঁত হচ্ছে, অনেক সময় আসল আর নকলের পার্থক্য করা কঠিন হয়ে দাঁড়ায়। তবে সাধারণ কিছু বিষয় খেয়াল করলেই এই ‘ডিপফেক’ ভিডিও শনাক্ত করা সম্ভব। যুক্তরাষ্ট্রের এমআইটি মিডিয়া ল্যাব এবং ইউরোপভিত্তিক সাইবার নিরাপত্তা প্রতিষ্ঠান ‘সোসেফ’-এর প্রকাশিত নিবন্ধে এ বিষয়ে সাধারণ মানুষের জন্য বেশ কিছু পরামর্শ দেওয়া হয়েছে। 

১) উৎস যাচাই ও রিভার্স সার্চ: কোনো ভিডিও দেখে সন্দেহ হলে প্রথমেই এর উৎস যাচাই করতে হবে। ভিডিওটি কে পোস্ট করেছে? কোনো বিশ্বাসযোগ্য গণমাধ্যম, নাকি অপরিচিত কোনো সোশ্যাল মিডিয়া অ্যাকাউন্ট? যেমন, কোনো বিখ্যাত ব্যক্তির ভিডিও তার ভেরিফায়েড পেজের বদলে কোনো ফ্যান পেজ থেকে এলে তা সন্দেহের তালিকায় রাখতে হবে। প্রয়োজনে ভিডিওর একটি স্ক্রিনশট নিয়ে গুগলে ‘রিভার্স ইমেজ সার্চ’ করে এর আসল উৎস খুঁজে পাওয়া যেতে পারে।

২) অস্বাভাবিক চোখের পলক ও আলোর প্রতিফলন: ভিডিওর চরিত্রটি স্বাভাবিক নিয়মে চোখের পলক ফেলছে কি না, তা খেয়াল করতে হবে। এআই ভিডিওতে অনেক সময় চরিত্ররা অস্বাভাবিক দ্রুত পলক ফেলে অথবা মোটেও পলক ফেলে না। এছাড়া ভিডিওর ব্যক্তি যদি চশমা পরা থাকেন, তবে চশমায় আলোর প্রতিফলন ঠিক আছে কি না সেদিকেও খেয়াল রাখতে হবে। মাথা ঘোরানোর সঙ্গে সঙ্গে আলোর প্রতিফলন প্রাকৃতিকভাবে পরিবর্তিত না হলে সেটি নকল হতে পারে।

৩) ত্বক ও চুলের অসংগতি: এআই ভিডিওতে মানুষের মুখের ত্বক সাধারণত অতিরিক্ত মসৃণ বা অনেকটা ‘প্লাস্টিকের মতো’ দেখায়। এমআইটির তথ্যানুসারে, বয়সের সঙ্গে ত্বকের ভাঁজ বা দাগগুলো এআই অনেক সময় ফুটিয়ে তুলতে পারে না। সোসেফ-এর মতে, চুলের দিকেও নজর দেওয়া উচিত। মানুষের চুল সাধারণত পুরোপুরি নিখুঁত বা পরিপাটি থাকে না, কিছু চুল এলোমেলো (flyaway hair) থাকে। কিন্তু এআই ভিডিওতে চুল অনেক সময় অস্বাভাবিকভাবে গোছানো মনে হতে পারে। 

৪) ঠোঁট ও কণ্ঠস্বরের অমিল: ভিডিওর অডিওর সঙ্গে ঠোঁটের নড়াচড়া বা ‘লিপ-সিঙ্ক’ মিলছে কি না, তা গভীরভাবে পর্যবেক্ষণ করতে হবে। সোসেফ-এর নির্দেশিকা বলছে, ডিপফেক ভিডিওতে কথা বলার সময় ঠোঁটের নড়াচড়া কৃত্রিম মনে হতে পারে। অনেক সময় অডিওতে যান্ত্রিক বা রোবোটিক ভাব থাকে এবং ব্যাকগ্রাউন্ডে অদ্ভুত শব্দ শোনা যেতে পারে।

৫) শারীরিক নড়াচড়া: ভিডিওতে ব্যক্তির নড়াচড়া যদি রোবটের মতো জড়সড় মনে হয় অথবা ভিডিওর কোনো অংশ ঝাপসা দেখায়, তবে তা সন্দেহের চোখে দেখতে হবে। গবেষকরা বলছেন, প্রযুক্তি উন্নত হলেও মানুষের প্রাকৃতিক নড়াচড়া হুবহু নকল করতে এআই এখনো পুরোপুরি সক্ষম নয়।

এছাড়া, কোনো নির্দিষ্ট সোশ্যাল মিডিয়া অ্যাকাউন্টে ক্রমাগত একই দৈর্ঘ্যের ও একই ধরনের ভিডিও আপলোড করা হলে সেটিও সন্দেহের তালিকায় রাখা যেতে পারে। ভিডিওর মধ্যে কোনো কাটপিছ আছে কি না সেদিকেও খেয়াল রাখতে পারেন ব্যবহারকারীরা। ভিডিওর চরিত্রগুলোর ধরন সবসময় একইরকম হলে এবং হাই পিচে হলে সেগুলোও সন্দেহের তালিকায় রাখা যেতে পারে।

নির্বাচনের এই সময়ে সামাজিক যোগাযোগ মাধ্যমে ছড়ানো ভিডিওর ব্যাপারে সতর্ক হওয়ার পরামর্শ দিয়েছেন ফাহমিদুল হক। তিনি বলেন, “দর্শকের প্রতি আমার পরামর্শ থাকবে এই ভিডিওগুলোর পেছনে সাইনবোর্ড বা পোস্টারগুলো একটু পাঠ করে দেখবেন সেটি আসলেই বাংলার মতো দেখাচ্ছে কি না। ভিডিওর পরিবেশ বাংলাদেশের বাস্তবতার সঙ্গে মিলে কি না। এইসব বিষয় যাচাই করে দেখা উচিত।”

আরো কিছু লেখা