December 23, 2024
Chicago 12, Melborne City, USA
Tech

মানুষের ‘বিলুপ্তির ঝুঁকি’ তৈরি করেছে এআই

ছবি: সংগৃহীত

একদল নের্তৃস্থানীয় প্রযুক্তিবিদ গত ৩০ মে জানিয়েছেন, তারা যে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি তৈরি করছেন তা একদিন মানব অস্তিত্বের জন্য হুমকি হয়ে দাঁড়াতে পারে এবং এই প্রযুক্তিকে মহামারি এবং পারমাণবিক যুদ্ধের মতো বড় ঝুঁকি হিসেবে বিবেচনা করা উচিত।

সেন্টার ফর এআই সেফটি নামের একটি অলাভজনক সংস্থার এক বাক্যের বিবৃতিতে বলা হয়েছে, ‘মহামারি ও পারমাণবিক যুদ্ধের মতো এআইয়ের কারণে বিলুপ্তির ঝুঁকি কমানোকেও সমান গুরুত্ব দেওয়া উচিত।’

সর্বশেষ খবর দ্য ডেইলি স্টার বাংলার গুগল নিউজ চ্যানেলে।
কৃত্রিম বুদ্ধিমত্তা খাতে কাজ করা ৩৫০ জনেরও বেশি ইঞ্জিনিয়ার, গবেষক ও নির্বাহীরা এই খোলা চিঠিতে স্বাক্ষর করেছেন।

স্বাক্ষরদাতাদের মধ্যে রয়েছেন ৩টি নের্তৃস্থানীয় এআই কোম্পানির প্রধান নির্বাহীরা- ওপেনএআইয়ের প্রধান নির্বাহী স্যামুয়েল অল্টম্যান, গুগল ডিপমাইন্ডের প্রধান নির্বাহী ডেমিস হাসাবিস এবং অ্যানথ্রোপিকের প্রধান নির্বাহী ডারিও আমোদেই।

নিউরাল নেটওয়ার্ক নিয়ে কাজের জন্য টুরিং পুরস্কার বিজয়ী জিওফ্রে হিনটন এবং যশুয়া বেনিজও, যাদেরকে আধুনিক এআই প্রযুক্তির ‘গডফাদার’ হিসেবে বিবেচনা করা হয়, তারাও এই বিবৃতিতে স্বাক্ষর করেছেন। তবে টুরিং পুরস্কার বিজয়ী তৃতীয় গবেষক ইয়ান লিক্যান, যিনি আবার মেটার এআই গবেষণা কাজে নের্তৃত্ব দিচ্ছেন, ৩১ মে পর্যন্ত বিবৃতিতে স্বাক্ষর করেননি।

বিবৃতিটি এমন সময়ে প্রকাশ করা হলো, যখন কৃত্রিম বুদ্ধিমত্তার ঝুঁকি নিয়ে উদ্বেগ ক্রমশ বাড়ছে। এই খাতে সাম্প্রতিক অগ্রগতি হচ্ছে তথাকথিত ‘লার্জ ল্যাংগুয়েজ মডেল’, যার সাহায্যে চ্যাটজিপিটি বা বার্ডের মতো চ্যাটবটগুলো চলতে পারে। অনেকেই আশঙ্কা করছেন এই লার্জ ল্যাংগুয়েজ মডেল ভবিষ্যতে ভুয়া তথ্য ও প্রপাগান্ডা ছড়ানোর কাজে ব্যবহৃত হবে এবং মানুষের লাখ লাখ চাকরি কেড়ে নেবে।

এমনকি কেউ কেউ বিশ্বাস করেন, কৃত্রিম বুদ্ধিমত্তার অগ্রগতির হার যদি এখনই নিয়ন্ত্রণে না আনা হয়, তাহলে এটি এতটাই শক্তিশালী হয়ে উঠতে পারে যে কয়েক বছরের মধ্যে সমাজে অস্থিরতা তৈরি করতে পারে। যদিও এআই কীভাবে এই সামাজিক অস্থিরতা তৈরি করবে, গবেষকেরা তা এখনো নিশ্চিতভাবে বলতে পারেননি।

কৃত্রিম বুদ্ধিমত্তা নিয়ে এই ভয় ও আশঙ্কা এই খাতের অসংখ্য নেতৃবৃন্দের। কিন্তু তারপরও তারা প্রতিদ্বন্দ্বী কোম্পানিগুলোর তুলনায় দ্রুততম সময়ে আরও উন্নত ও শক্তিশালী এআই প্রযুক্তি তৈরিতে নিজেদের সর্বোচ্চ চেষ্টা করছে। ফলে ঝুঁকি আরও বাড়ছে। বিশষেজ্ঞরা বলছেন, এআই সম্পর্কে আরও কঠোর নিয়ম-কানুন আরোপ করা উচিত।

স্যাম (স্যামুয়েল) অল্টম্যান এবং ডেমিস হাসাবিস এআই সম্পর্কিত বিধিবিধান কেমন হওয়া উচিত, তা নিয়ে আলোচনা করতে সম্প্রতি মার্কিন প্রেসিডেন্ট জো বাইডেন এবং ভাইস প্রেসিডেন্ট কামালা হ্যারিসের সঙ্গে দেখা করেছেন। তাদের স্বাক্ষাতের পর মার্কিন সিনেটের শুনানিতে হাজির হয়ে স্যাম অল্টম্যান কৃত্রিম বুদ্ধিমত্তার ঝুঁকিগুলো কী কী, তা বর্ণনা করেছেন এবং এআইয়ের সম্পর্কিত বিধিবিধান তৈরির জন্য সরকারি হস্তক্ষেপের ওপর জোর দিয়েছেন।

সিনেট শুনানিতে স্যাম অল্টম্যান বলেন, ‘আমি মনে করি এই প্রযুক্তি যখন খারাপ কিছু করে, তখন তা আরও বেশি খারাপ হওয়ার সম্ভাবনা বেশি। এমন পরিস্থিতি এড়াতে আমরা সরকারের সঙ্গে কাজ করতে চাই।’

ওপেনএআইয়ের প্রধান নির্বাহী বলেন, এআই কোম্পানিগুলোকে লাইসেন্স দেওয়ার জন্য একটি নতুন সংস্থা গড়ে তোলা প্রয়োজন। এ ছাড়া গণতন্ত্রের ওপর এর সম্ভাব্য প্রভাব সম্পর্কেও নিজের উদ্বেগ জানিয়েছেন অল্টম্যান।

সেন্টার ফর এআই সেফটির নির্বাহী পরিচালক ড্যান হ্যান্ড্রিকস বলেন, ‘এই বিবৃতিটির মাধ্যমে যারা এআইয়ের ঝুঁকি নিয়ে এতদিন গোপনভাবে কথা বলতেন, তারাও প্রকাশ্যে এলেন এবং নিজেরা যে প্রযুক্তি তৈরি করছেন, তার ঝুঁকি নিয়ে খোলামেলা কথা বললেন।’

‘এমনকি এআই সম্প্রদায়ের মধ্যেও একটি ভুল ধারণা রয়েছে যে, হয়তো অল্প সংখ্যক মানুষই এর ঝুঁকি সম্পর্কে কথা বলছেন। কিন্তু বাস্তবতা হচ্ছে অনেকেই গোপনে গোপনে এই প্রযুক্তির ঝুঁকি নিয়ে কথা বলছেন।’

কেউ কেউ অবশ্য যুক্তি দেখান যে এআই প্রযুক্তি এখনো অস্তিত্বের হুমকি তৈরি করার জন্য পরিপক্ক হয়ে উঠেনি। বরং তারা বর্তমানে যে এআই সিস্টেমগুলো সবাই ব্যবহার করছে, সেগুলোর দীর্ঘমেয়াদী বিপদের চেয়ে পক্ষপাতদুষ্ট এবং ভুল উত্তরের মতো স্বল্পমেয়াদী সমস্যাগুলো নিয়ে বেশি উদ্বিগ্ন।

তবে অন্যদের যুক্তি হচ্ছে, এআই এত দ্রুত উন্নতি করছে যে এটি ইতোমধ্যে কিছু ক্ষেত্রে মানুষের বুদ্ধি ও দক্ষতাকে ছাড়িয়ে গেছে এবং শিগগিরই অন্যান্য ক্ষেত্রেও মানুষকে ছাড়িয়ে যাবে। তারা বলছেন, এই প্রযুক্তির উচ্চতর সক্ষমতা ও বোঝার ক্ষমতা ইতোমধ্যে প্রমাণ হয়েছে। ফলে অদূর ভবিষ্যতে অনেকগুলো কাজের ক্ষেত্রে এটি মানুষকে হটিয়ে দেবে।

সম্প্রতি লেখা এক ব্লগ পোস্টে স্যাম অল্টম্যান এবং ওপেনএআইয়ের আরও ২ জন নির্বাহী এআই প্রযুক্তিকে কীভাবে দায়িত্বশীলতার সঙ্গে নিয়ন্ত্রণ করা যায়, তার পরামর্শ দিয়েছেন। তারা এআই প্রযুক্তি তৈরি করা প্রতিষ্ঠানগুলোর মধ্যে আরও সমন্বয়, লার্জ ল্যাংগুয়েজ মডেল সম্পর্কে আরও গভীর গবেষণার প্রস্তাব দিয়েছেন। একই সঙ্গে আন্তর্জাতিক পরমাণু শক্তি কমিশন বা আইএইএ-এর মতো এআই সেফটি অরগানাইজেশন প্রতিষ্ঠারও প্রস্তাব দিয়েছেন।

গত মার্চ মাসে ১ হাজারেরও বেশি প্রযুক্তিবিদ ও গবেষক এক খোলা চিঠিতে কৃত্রিম বুদ্ধিমত্তার বিকাশ ৬ মাসের জন্য বন্ধ রাখার আহবান জানিয়েছিল। ওই চিঠিতে বলা হয়েছিল, এই প্রযুক্তিগুলো তৈরির যে লাগামহীন প্রতিযোগিতা, তার ফলে আরও শক্তিশালী ডিজিটাল বুদ্ধি তৈরি হওয়ার সম্ভাবনা দেখা দিয়েছে। ওই খোলা চিঠিতে স্বাক্ষর করেছিলেন ইলন মাস্ক, যিনি ওপেনএআইয়ের প্রতিষ্ঠাতাদের একজন। যদিও পরবর্তীতে তিনি প্রতিষ্ঠানটি ছেড়ে চলে যান এবং কৃত্রিম বুদ্ধিমত্তার অভাবনীয় উত্থান নিয়ে তীব্র সমালোচনামুখর হন।

সূত্র: নিউ ইয়র্ক টাইমস

Share করে সবাইকে জানিয়ে দিন।
Page Link – bdengineer.com
Page Link- Engineers Job in Bangladesh

    Leave a Reply

    Your email address will not be published. Required fields are marked *