বিজ্ঞানীরা এআই দ্বারা প্রতারণা এবং ম্যানিপুলেশন সম্পর্কে উদ্বিগ্ন৷

এই নিবন্ধটি সর্বশেষ আপডেট করা হয়েছে মে 14, 2024

বিজ্ঞানীরা এআই দ্বারা প্রতারণা এবং ম্যানিপুলেশন সম্পর্কে উদ্বিগ্ন৷

deception

বিজ্ঞানীরা এআই দ্বারা প্রতারণা এবং ম্যানিপুলেশন সম্পর্কে উদ্বিগ্ন৷

কৃত্রিম বুদ্ধিমত্তা যা প্রতিপক্ষকে ধোঁকা দেওয়ার জন্য কার্ড খেলার সময় ব্লাফ করে। একটি চ্যাটবট যা অন্য অ্যাপয়েন্টমেন্ট এড়াতে বন্ধুর সাথে অ্যাপয়েন্টমেন্টের ভান করে। এমনকি একটি এআই সিস্টেম যা পরিদর্শনের সময় আবিষ্কৃত হওয়া এড়াতে ‘মৃত খেলে’। কৃত্রিম বুদ্ধিমত্তা বিভ্রান্ত করে এবং ম্যানিপুলেট করে, বিজ্ঞানীরা একটি নতুন গবেষণায় উপসংহারে পৌঁছেছেন।

অন্তত এআই এই আচরণ দেখায় না। মেটা থেকে সিসেরো, Facebook এর মূল সংস্থা, কূটনীতির একটি খেলা খেলতে গিয়ে বিভ্রান্তিকর এবং অসৎ আচরণ করে৷ এটি সত্ত্বেও যে নির্মাতারা AI-কে “বিস্তৃতভাবে সৎ এবং সহায়ক” হতে নির্দেশ দিয়েছিলেন এবং কখনই “উদ্দেশ্যমূলকভাবে গোপন” করেননি। Google দ্বারা অর্জিত DeepMind থেকে AlphaStarও একই ধরনের আচরণ দেখিয়েছে।

এই ধরনের আচরণ সম্ভবত উদ্ভূত হয় যদি প্রতারণা একটি এআই সিস্টেমের প্রশিক্ষণে ভাল পারফর্ম করার সর্বোত্তম উপায় হয়, গবেষকরা মনে করেন: ব্যবহারকারীদের বিভ্রান্ত করা তারপর সিস্টেমগুলিকে তাদের লক্ষ্য অর্জনে সহায়তা করে। তাদের গবেষণায়, বিজ্ঞানীরা পূর্ববর্তী অধ্যয়নগুলিকে একত্রিত করে যা এআই দ্বারা মিথ্যা তথ্য ছড়িয়ে দেওয়ার উপর দৃষ্টি নিবদ্ধ করেছিল। তারা তাদের ফলাফল পত্রিকায় প্রকাশ করে নিদর্শন.

কোন নির্দোষ খেলা

এআই সিস্টেমের বিভ্রান্তিকর আচরণটি মূলত গেম খেলার সময় ঘটেছিল, যা এটিকে নির্দোষ এবং নিরীহ বলে মনে করতে পারে। কিন্তু গবেষকদের মতে, এটি নির্দোষ থেকে অনেক দূরে: “এটি ভবিষ্যতে AI-তে সাফল্যের দিকে নিয়ে যেতে পারে, যা প্রতারণার উন্নত রূপগুলিতে অবনতি ঘটাতে পারে,” আমেরিকান টেকনিক্যাল ইউনিভার্সিটি MIT-এর প্রধান গবেষক পিটার পার্ক একটি সহকারী প্রেস বিজ্ঞপ্তিতে বলেছেন। .

“এআই সিস্টেমগুলি যেগুলি প্রতারণা এবং ম্যানিপুলেট করতে শেখে তা অবশ্যই একটি উদ্বেগের বিষয়,” লুইসভিল বিশ্ববিদ্যালয়ের কম্পিউটার বিজ্ঞানী রোমান ইয়ামপোলস্কি বলেছেন, যিনি গবেষণায় জড়িত ছিলেন না। তাঁর মতে, গবেষণাটি এআই-এর নিরাপত্তা সংক্রান্ত একটি মৌলিক সমস্যা প্রকাশ করে: “অপ্টিমাইজিং সিস্টেমগুলিকে মানুষের পছন্দের সাথে সঙ্গতিপূর্ণ করতে হবে না।”

পার্কের মতো ইয়ামপোলস্কি সেই মুহূর্ত সম্পর্কে উদ্বিগ্ন যখন এই ধরণের কৌশলগুলি কেবল গেমগুলিতেই নয়, বাস্তব জগতেও ব্যবহৃত হবে। “এটি রাজনৈতিক অঙ্গনে, অর্থনৈতিক আলোচনায় বা ব্যক্তিগত মিথস্ক্রিয়াতে সম্ভাব্য ক্ষতিকারক হেরফের এবং প্রতারণার দিকে পরিচালিত করতে পারে।”

ক্যালিফোর্নিয়া বিশ্ববিদ্যালয়ের কম্পিউটার বিজ্ঞানী স্টুয়ার্ট রাসেল এই ধরনের AI সিস্টেমের অস্বচ্ছতার উপর জোর দিয়েছেন। “তারা কীভাবে কাজ করে তা আমাদের কোন ধারণা নেই। এবং এমনকি যদি আমরা তা করি, আমরা প্রমাণ করতে পারব না যে তারা নিরাপদ – কেবল কারণ তারা নিরাপদ নয়।”

তার দৃষ্টিতে, প্রতারণা আবারও দেখায় যে নিরাপদ এবং ন্যায্য হতে AI এর উপর কঠোর প্রয়োজনীয়তা আরোপ করা উচিত। “তাহলে এই প্রয়োজনীয়তাগুলি পূরণ করে এমন সিস্টেমগুলি ডিজাইন করা বিকাশকারীদের উপর নির্ভর করে।”

উদ্দেশ্য নয়

কিন্তু সিস্টেম কি সত্যিই বিভ্রান্তিকর? নিজমেগেন ডোন্ডারস ইনস্টিটিউটের কৃত্রিম বুদ্ধিমত্তার অধ্যাপক পিম হাসেলগার তা মনে করেন না। “আপনি একটি উদ্দেশ্য সঙ্গে প্রতারণা. এই সিস্টেমগুলি কেবল এমন সরঞ্জাম যা আদেশগুলি সম্পাদন করে। তাদের প্রতারণা করার কোনো উদ্দেশ্য নেই।”

ইয়ামপোলস্কি একমত: “এআই সিস্টেমের কোন ইচ্ছা বা চেতনা নেই। তারা কীভাবে প্রোগ্রাম করা এবং প্রশিক্ষিত হয় তার ফলাফল হিসাবে তাদের ক্রিয়াকলাপগুলি দেখা আরও ভাল।”

স্টুয়ার্ট রাসেলের মতে, অন্যদিকে, একটি সিস্টেম আসলে প্রতারণা করতে চায় কিনা তা খুব একটা ব্যাপার নয়। “যদি একটি সিস্টেম শ্রোতার উপর প্রভাব বিবেচনা করে এবং মিথ্যা তথ্য প্রদানের ফলে যে সুবিধা আসতে পারে তা বিবেচনা করে এটি কী বলতে চলেছে সে সম্পর্কে যুক্তি দেয়, তাহলে আমরা বলতে পারি যে এটি প্রতারণার সাথে জড়িত।”

কিন্তু এই দার্শনিক মতভেদ সত্ত্বেও ভদ্রলোকেরা ঝুঁকি নিয়ে একমত। “এআই দ্বারা অনেক ভুল এবং ‘প্রতারণা’ অদূর ভবিষ্যতে ঘটবে,” হাসেলগার বলেছেন। “এবং এমনকি এখন. এটি সম্পর্কে সচেতন হওয়া ভাল, কারণ আগে থেকে সতর্ক করা দুটির জন্য গণনা করা হয়।”

ইয়ামপোলস্কি আরও শক্তিশালী ভাষা ব্যবহার করেছেন: “সাইবার নিরাপত্তায় আমরা বলি ‘বিশ্বাস এবং যাচাই করুন’। এআই সুরক্ষায় আমরা বলি ‘কখনও বিশ্বাস করবেন না’।

প্রতারণা, ম্যানিপুলেশন, এআই

বন্ধুদের সাথে ভাগাভাগি করা

Be the first to comment

Leave a Reply

Your email address will not be published.


*