কৃত্রিম বুদ্ধিমত্তার অপব্যবহার কতটা দুশ্চিন্তার
ড. শাহ জে মিয়া [সূত্র : যুগান্তর, ২৪ নভেম্বর ২০২৫]

ইদানীং কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি ব্যবহার করে অনেক অপ্রীতিকর ছবি এবং ভিডিও ইন্টারনেট দুনিয়ায় ছড়িয়ে দেওয়া হচ্ছে, যা অনেক গুরুত্বপূর্ণ ব্যক্তি ও প্রতিষ্ঠানের সম্মানহানির কারণ হয়ে দাঁড়িয়েছে। আমি এর আগেও উল্লেখ করেছিলাম, কৃত্রিম বুদ্ধিমত্তা দিয়ে একটি এমন ডিজিটাল মিডিয়া ফাইল (যেমন: ছবি, ভিডিও বা অডিও রেকর্ডিং) তৈরি করা সম্ভব, যা দেখতে আসল বলে মনে হলেও বস্তুতই এটি এআই ব্যবহার করে তৈরি এবং যার বিন্দুমাত্র সত্যতা নেই।
এর আগেও আমি আলোচনা করেছিলাম, এআই অ্যাপ্লিকেশনের এ নতুন ধারণাটি বিশ্বব্যাপী বেশির ভাগ সমাজেই অত্যন্ত বিরূপ প্রভাব ফেলেছে। এ ধরনের মিথ্যা কনটেন্ট তৈরি করতে সক্ষম এআই সফটওয়্যারগুলো খুবই ইন্টারেস্টিংভাবে কাজ করে থাকে। কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে একজন ব্যবহারকারী যদি দুজন ভিন্ন ব্যক্তির ছবি সফটওয়্যারটিকে দিয়ে কমান্ডে বলে, আমাকে একটি ছবি তৈরি করে দাও, যেখানে দেখা যাবে ওই দুজন ব্যক্তি নিজেদের মধ্যে হাত মেলাচ্ছে, তাহলে কিছুক্ষণের মধ্যেই সফটওয়্যারটি এত নিখুঁত একটি ছবি তৈরি করবে, যেটা থেকে বোঝার কোনো উপায়ই থাকবে না যে, এ ঘটনাটি সম্পূর্ণ মিথ্যা এবং এটি কখনোই সংঘটিত হয়নি। সময়ের সঙ্গে সঙ্গে এ ডিপফেক প্রযুক্তির উন্নতি হয়েছে এবং সফটওয়্যারগুলোও অনেক শক্তিশালী হয়েছে। এখন সফটওয়্যারগুলো কৃত্রিম ছবি তৈরির সঙ্গে সঙ্গে এমন ভিডিও তৈরি করতে পারে, যেখানে দেখা যাবে আমাদের এ উদাহরণের দুজন মানুষ একসঙ্গে বসে হাস্যোজ্জ্বল ভঙ্গিতে আলোচনা করছে, চা পান করছে বা একসঙ্গে হেঁটে যাচ্ছে। সেই সঙ্গে যদি সফটওয়্যারগুলোকে এ দুজন ব্যক্তির কোনো কথা বা বক্তব্য প্রদান করা যায়, তাহলে এগুলো তাদের কণ্ঠস্বর নকল করে যে কোনো বক্তব্য ভিডিওর সঙ্গে জুড়ে দিতে পারবে। ভিডিওতে তাদের প্রতিটি বক্তব্যের সঙ্গে সঙ্গে সঠিকভাবে মুখের পেশি নড়বে এবং আবেগের পরিবর্তন প্রদর্শিত হতে পারে। এ মিথ্যা ভিডিও যদি সোশ্যাল মিডিয়ায় ছড়িয়ে দেওয়া হয়, তাহলে খালি চোখে দেখে কেউই এই ছবি বা ভিডিওর কৃত্রিম যাচাই করতে পারবে না।
আমাদের দেশে মাত্র তিন মাসের মধ্যেই অনুষ্ঠিত হতে চলেছে জাতীয় নির্বাচন। এ মুহূর্তে এই নির্বাচনের প্রাক্কালে প্রত্যেক রাজনৈতিক ব্যক্তির জন্য তাদের সম্মান ও ইমেজ ধরে রাখা খুবই গুরুত্বপূর্ণ। ঠিক এ মুহূর্তেই একটি শক্তি তাদের সর্বোচ্চ চেষ্টা ও ক্ষমতা কাজে লাগিয়ে চেষ্টা চালিয়ে যাচ্ছে এ রাজনৈতিক ব্যক্তিবর্গের ইমেজ, সামাজিক গ্রহণযোগ্যতা ক্ষুণ্ন করার। তাদের ব্যবহৃত অস্ত্রগুলোর মধ্যে প্রথমেই রয়েছে এআই প্রযুক্তি ব্যবহার করে রাজনৈতিক ব্যক্তিদের অপ্রীতিকর কনটেন্ট তৈরি করে সোশ্যাল মিডিয়াগুলোতে ছড়িয়ে দেওয়া। এ ক্রান্তিকালে তাই এআই সম্পর্কে জ্ঞান অর্জন, এর কার্যপ্রণালি সম্পর্কে জানা এবং এর বিরুদ্ধে সচেতনতামূলক প্রচারণা করা প্রতিটি সরকারি, বেসরকারি এবং রাজনৈতিক প্রতিষ্ঠানের জন্য অতীব জরুরি।
সোশ্যাল মিডিয়ায় আমরা যেসব ছবি বা ভিডিও পোস্ট করে থাকি, সেখান থেকে আমাদের চেহারা, কণ্ঠস্বর, গতিবিধি, এবং আমাদের কনটেন্টকে এসব এআই মডেলগুলোর জন্য প্রশিক্ষণ ডেটা হিসাবে ব্যবহার করা হয়। এ ডেটা থেকে শিক্ষা গ্রহণই পরবর্তীকালে অনেক নতুন নতুন মিডিয়ার আবির্ভাব ঘটায়, যেখানে ভিডিওর মানুষটি দেখতে আমাদের কারও মতো, এমনকি কণ্ঠস্বর শুনতেও আমাদের মতো; কিন্তু এগুলো সম্পূর্ণ কৃত্রিম মিডিয়া, যেগুলোর সঙ্গে আসল ব্যক্তির কোনো সম্পর্কই নেই। এ কৃত্রিম বুদ্ধিমত্তা মডেলগুলো মানুষের মুখের নড়াচড়া, অভিব্যক্তি এবং ভয়েস প্যাটার্ন বা সংশ্লেষণ বিশ্লেষণের মাধ্যমে এমনভাবে শিক্ষা গ্রহণ করে থাকে, যার ফলে নির্দিষ্ট মানুষের আচার-আচরণ, চলাফেরা, কথা বলার ধরন হুবহু নকল করতে সক্ষম হয়। ভয়েস সংশ্লেষণ বা কণ্ঠস্বরের ধরন বলতে একজন ব্যক্তির কথা বলার অনন্য ধরনকে বোঝায়। প্রতিটি ব্যক্তির কথা বলার ছন্দ, স্বর, গতি এবং বিরতির মতো বৈশিষ্ট্যগুলো অন্যের থেকে আলাদা। কৃত্রিম বুদ্ধিমত্তার মাধ্যমে এ আলাদা বৈশিষ্টগুলোকে চিহ্নিত করা যায় এবং সেগুলো অনুকরণ করে নির্দিষ্ট ব্যক্তির কণ্ঠস্বরে কোনো বক্তব্য তৈরি করাও সম্ভব হয়।
দ্বিতীয় কার্যকলাপটি মানুষের চেহারার পরিবর্তন বা ফেস সোয়াপিং বা মুখ-অবয়ব বিকৃতিকরণের সঙ্গে সম্পর্কিত। এ কার্যকলাপটিও কৃত্রিম বুদ্ধিমত্তা মডেলকে প্রশিক্ষণের মাধ্যমে সম্পন্ন করতে হয়। এ প্রশিক্ষিত কৃত্রিম বুদ্ধিমত্তা মডেলটি একটি ভিডিও বা ছবিতে মানুষের মুখের বদলে অন্য একটি বা যে কোনো কিছুর সমন্বয় দিয়ে প্রতিস্থাপন করতে পারে। কৃত্রিম বুদ্ধিমত্তা মডেলটি মানুষের মুখের বৈশিষ্ট্য, ত্বকের রং, টোন এবং আলোর সঙ্গে সামঞ্জস্য রাখতে প্রশিক্ষিত হয়, যাতে মুখ অদলবদলের ঘটনাটি নির্বিঘ্ন এবং পরিচ্ছন্ন হয়। এরপর, এ কৃত্রিম বুদ্ধিমত্তাটি মুখের নড়াচড়া বা মুভমেন্ট সেটআপের জন্য কাজ শুরু করে, যাতে নকল মুখ স্বাভাবিকভাবে নড়াচড়া করে, অভিব্যক্তি ও মাথার নড়াচড়া এবং এমনকি সূক্ষ্ম পেশির টান মূল ভিডিওর সঙ্গে গতির সমন্বয় করে থাকে।
ধুলোয় মিশিয়ে দিতে পারে। তিনি যদি কোনো রাজনৈতিক ব্যক্তি হন, এ অপপ্রচারের কারণে কারণে তার দলীয় অবস্থানের মারাত্মক ক্ষতি হতে পারে, তার নোমিনেশন বাতিল হয়ে যেতে পারে, তার সমর্থন মুহূর্তের মধ্যেই অনেক কমে যেতে পারে এবং তার সামাজিক এবং রাজনৈতিক অবস্থান ধ্বংস হয়ে যাবে।
প্রশ্ন হচ্ছে, এ ধরনের কৃত্রিম বুদ্ধিমত্তার প্রতিরোধ করার কি কোনো উপায়ই নেই? ভুল তথ্য এবং উদ্দেশ্যপ্রণোদিত ভুল তথ্যের বিস্তার সমাজের জন্য, বিশেষ করে গণতন্ত্রের জন্য, নানা কঠিন চ্যালেঞ্জ তৈরি করে। যারা নির্বাচনকে প্রভাবিত করতে চায়, তাদের জন্য ইচ্ছাকৃতভাবে ‘disinformation’ তৈরি করা এবং তা ছড়িয়ে দেওয়া একটি প্রধান কৌশলে পরিণত হয়েছে। অনির্বাচিত কর্মকর্তা, রাজনৈতিক প্রার্থী, কর্মী, এবং অন্যরা, যারা নিজেদের স্বার্থ ও লাভের জন্য অসৎ উদ্দেশ্যে কাজ করে, তারা ভুল তথ্য বা উদ্দেশ্যপ্রণোদিত হয়ে ভুল তথ্য ব্যবহার করতে পারে।
যুক্তরাষ্ট্রের একটি ঘটনাকে উদাহরণস্বরূপ দেখা যেতে পারে। ২০২০ সালের মার্কিন রাষ্ট্রপতি নির্বাচনে, মেইল-ইন এবং অনুপস্থিত ভোটিংয়ের অনুমোদনের ক্ষেত্রে একটি নতুন এবং ক্রমবর্ধমান পক্ষপাতদুষ্ট ব্যবধান (partisan gap) তৈরি হয়েছিল, যার প্রধান কারণ ছিল ভোটার জালিয়াতির (voter fraud) ব্যাপকতা সম্পর্কিত মিথ্যা তথ্যের (disinformation) প্রচার। সেই সময়ে কিছু রাজনৈতিক প্রার্থী দাবি করেছিলেন, মৃত ব্যক্তিদের নামে প্রচুর ভোট দেওয়া হয়েছে বলে অভিযোগ ওঠায় ২০২০ সালের নির্বাচনকে বিশ্বাস করা যাচ্ছে না। যাই হোক, পরবর্তী সময়ে স্ট্যানফোর্ড ইউনিভার্সিটির গবেষকদের একটি গবেষণায় দেখা গেছে, সাম্প্রতিক মার্কিন নির্বাচনগুলোয় মৃত ব্যক্তিদের ভোট দেওয়ার ঘটনা অত্যন্ত বিরল, যেখানে আট বছরের মেয়াদে একটি রাজ্যে ৪.৫ মিলিয়ন (৪৫ লাখ) ভোটারের মধ্যে মৃত ব্যক্তিদের ভোট দেওয়ার মাত্র ১৪টি সম্ভাব্য ঘটনা (বা ০.০০০৩ শতাংশ) পাওয়া গেছে, যা কোনো নির্বাচনের ফলাফলে কোনো ধরনের প্রভাব ফেলার জন্য যথেষ্ট নয়। এ ধরনের ঘটনাসহ আরও অনেক ‘disinformation’ প্রচারের কারণে আমেরিকান ভোটারদের একটি বিশাল অংশ রয়েছে, যারা বিশ্বাস করে না যে মার্কিন নির্বাচনগুলো মুক্ত, অবাধ এবং সুরক্ষিত। ২০২০ ও ২০২১ সালজুড়ে, অসৎ ব্যক্তিরা অতীতের ‘disinformation’-এর ঘটনাগুলোকে নতুন ঘটনার সঙ্গে যুক্ত করে তাদের নির্বাচনি প্রচারণার জন্য তহবিল সংগ্রহ করতে এ দাবিগুলোকে ব্যবহার করেছিল।
উল্লিখিত সব কনটেন্ট যেমন এআই দিয়ে তৈরি করা সম্ভব, ঠিক তেমনই এ কনটেন্টগুলোর শনাক্তকরণ এবং প্রচার রোধে এআই ব্যবহার করা সম্ভব। এআই দ্বারা তৈরি জাল কনটেন্ট (fake contents) মোকাবিলায় সাধারণত তিন ধরনের এআই ব্যবহার করা হয়। আমরা প্রধানত রিইনফোর্সমেন্ট লার্নিং (Reinforcement Learning) ব্যবহার করে থাকি। রিইনফোর্সমেন্ট লার্নিং হলো একধরনের মেশিন লার্নিং, যেখানে একটি এজেন্ট বা সিস্টেম (যা শেখে এবং সিদ্ধান্ত নেয়) একটি এনভায়রনমেন্ট বা পারিপার্শ্বিক জগতের সঙ্গে মিথস্ক্রিয়া করে। এজেন্টটি বিভিন্ন অ্যাকশন বা কাজ (যা সে একটি নির্দিষ্ট অবস্থায় করতে পারে) সম্পাদন করার মাধ্যমে সিদ্ধান্ত নিতে শেখে এবং সেই কাজের প্রতিক্রিয়া বা ফিডব্যাক হিসাবে পুরস্কার (একটি ইতিবাচক সংকেত) অথবা শাস্তি (একটি নেতিবাচক সংকেত) পায়। বারবার চেষ্টা ও ভুলের (trial and error) মাধ্যমে, এজেন্টটি একটি ‘পলিসি’ (কাজ বেছে নেওয়ার কৌশল) শেখে, যা সময়ের সঙ্গে সঙ্গে তার মোট বা সঞ্চিত পুরস্কার সর্বাধিক করে তোলে; এটি অনেকটা মানুষ বা প্রাণীর অভিজ্ঞতার মাধ্যমে শেখার মতোই। এ চেষ্টা ও ভুলের প্রক্রিয়াটি এজেন্টকে বিভিন্ন স্টেট বা পরিস্থিতিতে (পরিবেশের বর্তমান অবস্থা) সেরা কাজটি বেছে নিতে শেখায় এবং এর জন্য তাকে কোনো সঠিক উত্তর সরাসরি প্রোগ্রাম করে দিতে হয় না। উদাহরণস্বরূপ, একটি রোবট একটি গোলক ধাঁধায় (maze) প্রস্থান পথের কাছাকাছি যাওয়ার জন্য ইতিবাচক পুরস্কার ও দেওয়ালে ধাক্কা খেলে শাস্তি পাওয়ার মাধ্যমে পথ চলতে শিখতে পারে এবং শেষ পর্যন্ত সবচেয়ে কার্যকর পথটি নিজেই আবিষ্কার করে ফেলে। এআই প্রযুক্তি ব্যবহার করে আমরা সাধারণত বিভিন্ন ধরনের টুলের মাধ্যমে মিথ্যা কনটেন্টগুলো শনাক্ত করে থাকি।
ড. শাহ জে মিয়া : প্রফেসর, নিউক্যাসল ইউনিভার্সিটি, অস্ট্রেলিয়া