ইয়ান ফক্স
‘এআই ইয়ান’-এর কাছ থেকে আমরা কী শিখতে পারি?
ইয়ান ফক্স
আমি সম্প্রতি খুব বিশেষ একজনের সাক্ষাৎকার নিয়েছি। দেখুন এই ক্লিপে:
তো… কী হচ্ছে এই ভিডিওতে? এটি আসলে আমার এবং কৃত্রিম বুদ্ধিমত্তা (এআই) দিয়ে তৈরি আমার একটি সংস্করণের কথোপকথন। এই “এআই ইয়ান”-এর অডিও তৈরি করা হয়েছে ইলেভেনল্যাবস-এর সাহায্যে। এবং “এআই ইয়ান”-এর ভিডিও তৈরি করেছে ডি-আইডির ক্রিয়েটিভ রিয়েলিটি স্টুডিও।
আমরা এখন এই ধরনের অনেক ভিডিও, ছবি, টেক্সট, এবং ভয়েস ক্লোনিংয়ের সামনে পড়ছি– যেগুলো তৈরি করা হচ্ছে এআই দিয়ে। ফলে এখন শিখে নেওয়া জরুরি যে, প্রতারণার হাত থেকে বাঁচতে কীভাবে এসব এআই প্রযুক্তি চিহ্নিত করা যায়।
ভয়েস ক্লোনিং এবং ভুল তথ্য
প্রথমেই, ভয়েস-ক্লোনিং নিয়ে কিছু কথা। ইলেভেনল্যাবের ভয়েজ সিন্থেটিক প্ল্যাটফর্মে ব্যবহারকারীরা মাত্র কয়েক মিনিটের নমুনা অডিও আপলোড করে এবং কী বলতে হবে সেই টেক্সট ইনপুট দিয়ে যেকোনো মানুষের কণ্ঠ নকল করে একদম বাস্তবসম্মত অডিও তৈরি করতে পারেন।
এমা ওয়াটসন [হিটলারের আত্মজীবনী] “মাইন ক্যাম্ফ” পড়ছেন বা বিল গেটস বলছেন যে কোভিড-১৯ টীকা থেকে এইডস হয়– এ ধরনের ভাইরাল অডিও ক্লিপগুলো তৈরি করা হয়েছে এআই দিয়ে। সিন্থেটিক ভয়েজ বা কণ্ঠস্বর অনুকরণের এআই প্রযুক্তি এখন আগের তুলনায় অনেক উন্নত। এক সময়ের রোবটিক কণ্ঠস্বরগুলো এখন অবিশ্বাস্যরকমের বিশ্বাসযোগ্য ও ব্যক্তিনির্ভর হয়ে উঠেছে। এমনকি, সাম্প্রতিক সিন্থেটিক ভয়েসগুলোকে এখন স্বাভাবিক কণ্ঠস্বরের থেকে এখন আলাদা করা যায় না বললেই চলে।
একটি ক্লোনড ভয়েস তৈরি করতে কম্পিউটারের দুটি জিনিসের প্রয়োজন হয়। যা বলতে হবে– সেই টেক্সট এবং যেরকম কণ্ঠস্বর চাই তার কয়েক মিনিটের নমুনা। স্পষ্ট একটি উদাহরণ পাওয়া যায় মিডিয়ামের এই নিবন্ধটিতে। আমরা যদি ব্যাটম্যানের কণ্ঠে “আই লাভ পিজ্জা” বলা শুনতে চাই, তাহলে আমাদের “আই লাভ পিজ্জা” লেখা টেক্সট দিতে হবে এবং ব্যাটম্যানের কণ্ঠস্বরের ছোট একটি স্যাম্পল দিতে হবে, যেন সে বুঝতে পারে যে ব্যাটম্যানের গলা কেমন। এরপর আউটপুটে আমরা ব্যাটম্যানের কণ্ঠেই বলতে শুনব, “আই লাভ পিজ্জা”।
বোঝাই যাচ্ছে যে, নতুন এই প্রযুক্তিগুলোর গুরুতর ভুল তথ্য ছড়ানোর মতো সক্ষমতা রয়েছে। কেউ অসৎ উদ্দেশ্যে এআই ভয়েজ ক্লোনিং ব্যবহার করে কোনো রাজনীতিবিদ, সাংবাদিক বা অন্য কোনো গুরুত্বপূর্ণ ব্যক্তির এমন কোনো অডিও বানাতে পারেন, যা আসলে তারা কখনো বলেনি। যেমন, ফেব্রুয়ারিতে জো বাইডেনের কণ্ঠ নকল করে ট্রান্সজেন্ডারদের নিয়ে হাসিঠাট্টার একটি এআই জেনারেটেড ক্লিপ ভাইরাল হয়। তবে দ্রুতই সেটি যাচাই করা হয়েছিল ডিপফেক হিসেবে।
ব্যাপকভাবে ছড়িয়ে পড়া এআই নির্মিত ছবির উদাহরণের মধ্যে রয়েছে পোপের পাফার জ্যাকেট পরা ছবি। এ ধরনের ছবিগুলোর মাধ্যমেও ভুল তথ্য ছড়ানোর আশঙ্কা থাকে। এআই নির্মিত ছবির আরও কিছু উদাহরণের মধ্যে আছে সাবেক প্রেসিডেন্ট ডোনাল্ড ট্রাম্পের ভুয়া মাগশটের ছবি।
এআই জেনারেটেড কন্টেন্ট চিহ্নিত করার টিপস
মিডিয়া লিটারেসির পুরো বিষয়টিই হলো প্রেক্ষাপট বুঝতে পারা। তো, এআই-নির্মিত কন্টেন্ট দিয়ে প্রতারিত হওয়ার হাত থেকে বাঁচতে কী করবেন? কোনো সন্দেহজনক ছবি বা বিভ্রান্তিকর অডিও সামনে পড়লে প্রথমেই অনুসন্ধান করুন সেই ইউজারকে নিয়ে, যিনি এটি পোস্ট করেছেন।
১। ইউজার নেম, ডিসপ্লে নেম বা ব্যবহারকারীর বায়োতে অন্য কোনো সূত্র থাকলে তা দিয়ে কী-ওয়ার্ড সার্চ করুন। পোপের ছবিটির ক্ষেত্রে, শুরুতেই স্পষ্ট বোঝা গিয়েছিল যে, এটি কোনো ভ্যাটিকান আলোকচিত্রীর তোলা ছবি নয়। তাদের টুইটার বা ইন্সটাগ্রামেও এমন কিছু ছিল না, যা থেকে সেগুলোকে বিশ্বস্ত সূত্র হিসেবে ধরে নেওয়া যায়। আপনাকে সবসময় আরও গভীরে খতিয়ে দেখতে হবে।
২। এরপর, খুঁজে দেখার চেষ্টা করুন যে ছবি অডিওটি কোথা থেকে এসেছে। ছবির ক্ষেত্রে রিভার্স ইমেজ সার্চ করুন। এর মাধ্যমে আপনি সার্চ ইঞ্জিন ব্যবহার করে একই ধরনের বা কাছাকাছি ধরনের ছবি খুঁজে পেতে পারেন। এমনকি মূল ছবির সূত্রটিও পেয়ে যেতে পারেন। পোপের ছবিটি রিভার্স সার্চ করে আমরা রেডিটের মিডজার্নি এআই জেনারেটেড ইমেজেসের একটি পোস্ট খুঁজে পাই। অডিওর ক্ষেত্রে, যে কথাগুলো বলা হয়েছে, হুবহু সেগুলো লিখে কিওয়ার্ড সার্চ করুন। যদি দেখেন যে, তেমন কোনো ফলাফল পাওয়া যাচ্ছে না, তাহলে সতর্ক হোন।
৩। ছবি বা ভয়েসের কোনো কিছু একটু অদ্ভুত বা অসঙ্গতিপূর্ণ মনে হলেই তাতে বিশেষ মনোযোগ দিন। অডিওতে অস্বাভাবিক কোনো বিরতি অথবা কণ্ঠস্বরের পিচ বা টোনে কোনো পরিবর্তন হচ্ছে কি না, সে বিষয়ে সতর্ক থাকুন। এটা কিছুটা রোবটিক বা অস্বাভাবিক শোনাতে পারে। ছবির ক্ষেত্রে হাত, চশমা বা দাঁতের মতো অংশগুলো মনোযোগ দিয়ে দেখুন। হাতের আঙুলগুলো কি বেশি মনে হচ্ছে? এরপর ব্যাকগ্রাউন্ডও জুম করে দেখুন। পেছনের মুখগুলো কি ঝাপসা বা অস্পষ্ট? কোনো রেকর্ডিং এআই জেনারেটেড কি না, তা বুঝতে ভয়েস রিকগনিশন টুলও ব্যবহার করতে পারেন।
তবে সবচেয়ে সেরা কৌশলটি হলো কীওয়ার্ড অনুসন্ধান। রেকর্ডিং বা ছবি সন্দেহজনক মনে হলেই সেটা সত্য হিসেবে মেনে নেওয়ার আগে অন্য কোনো সূত্র থেকে যাচাই করে নিন। অন্যান্য সংবাদ মাধ্যম, প্রাতিষ্ঠানিক বিবৃতি বা সেই খাতের বিশ্বস্ত বিশেষজ্ঞের সঙ্গে যোগাযোগ করে তথ্যগুলো ক্রস-রেফারেন্সিংয়ের মাধ্যমে যাচাই করুন।
শেষ কথা: কোনো রেকর্ডিং বা ছবির সত্যতা বা নির্ভুলতা যাচাই না করে কখনোই সেগুলো শেয়ার করবেন না বা অন্য কাউকে পাঠাবেন না।
এই প্রতিবেদনটি প্রথম প্রকাশিত হয়েছিল পয়েন্টার-এ। অনুমতি নিয়ে এখানে অনুবাদ ও পুনঃপ্রকাশ করা হয়েছে। বাংলায় অনুবাদ করেছেন তামারা ইয়াসমীন তমা।