এই রোবটটি কীভাবে মানব চাহিদাগুলিতে 'না' বলতে শিখেছে

$config[ads_kvadrat] not found

মাঝে মাঝে টিà¦à¦¿ অ্যাড দেখে চরম মজা লাগে

মাঝে মাঝে টিà¦à¦¿ অ্যাড দেখে চরম মজা লাগে
Anonim

মানুষের মতই রোবটগুলি "না" বলতে কখন শিখতে হবে, যদি কোনও অনুরোধ অসম্ভব হয়, তাহলে ক্ষতি হতে পারে, বা হাতের কাজ থেকে তাদের বিভ্রান্ত করতে পারে, তাহলে এটি 'বট এবং তার মানবিক সমান স্বার্থে একটি কূটনৈতিক জন্য না ধন্যবাদ কথোপকথন অংশ হতে।

কিন্তু কখন মেশিনে কথা বলা উচিত? এবং কি শর্তে? প্রকৌশলী হিউম্যানয়েডের আদেশগুলি কীভাবে এবং কখন অস্বীকার করবেন তা এই ধারাকে কীভাবে উত্থাপন করবেন তা নির্ধারণ করার চেষ্টা করছেন।

এই নাও রোবট এগিয়ে হাঁটতে প্রত্যাখ্যান করে দেখুন, এটি করার ফলে তাকে একটি টেবিলের প্রান্ত বন্ধ করে দেওয়া হবে:

সহজ উপাদান, কিন্তু মানব ত্রুটি একটি চেক হিসাবে অভিনয় করার জন্য অবশ্যই অপরিহার্য। টাফ্টস ইউনিভার্সিটির গবেষক গর্ডন ব্রিগস এবং ম্যাথিয়াস শিউটজ একটি জটিল অ্যালগরিদম তৈরি করেছেন যা রোবটকে মূল্যায়ন করার অনুমতি দেয় যে কোন মানুষ তাকে কি করতে বলেছে কিনা তা নির্ধারণ করতে পারে কিনা, সেটি করা উচিত কিনা তা নির্ধারণ করতে হবে এবং যথাযথভাবে সাড়া দেবে। গবেষণাটি অ্যাডভান্সমেন্ট অফ আর্টিফিশিয়াল ইন্টেলিজেন্সের সাম্প্রতিক সভায় উপস্থিত ছিলেন।

রোবট নিজেকে কাজ করতে সক্ষম কিনা তা সম্পর্কিত একটি সিরিজ জিজ্ঞাসা করে। আমি কিভাবে এটা করতে জানি? আমি শারীরিকভাবে এখন এটা করতে সক্ষম? আমি সাধারণত শারীরিকভাবে এটা করতে সক্ষম? আমি কি এখনই এটা করতে পারব? আমি কি এটা আমার সামাজিক ভূমিকা উপর ভিত্তি করে বাধ্য? এটা কি কোনো আদর্শগত নীতি লঙ্ঘন করে?

ফলটি এমন একটি রোবট যা কেবল বুদ্ধিমান নয় বলে মনে হয় তবে একদিন এমনকি বিজ্ঞ।

মানবদেহ তাকে ধরার প্রতিশ্রুতি দেওয়ার পর নাও কিভাবে এগিয়ে চলার বিষয়ে তার মন পরিবর্তন করে তা লক্ষ্য করুন। এটি একটি ভিন্ন দৃশ্যের ধারণা করা সহজ হবে, যেখানে রোবট বলবে, "কোন ভাবেই, আমি আপনার উপর কেন বিশ্বাস করব?"

কিন্তু নাও একটি সামাজিক প্রাণী, নকশা দ্বারা। মানুষকে তার ডিএনএতে অনুগ্রহ করার জন্য, তাই মানুষ যে তথ্যটি ধরতে চায় সেটি তিনি দিয়েছেন, তিনি অন্ধকূপে অন্ধকারে এগিয়ে যান। নিশ্চিতভাবেই, যদি মানুষ তার বিশ্বাসকে প্রতারিত করতে চায় তবে সে হুপ হয়ে যাবে, তবে সে যে কোনওভাবে বিশ্বাস করে। এটা নাও এর পথ।

রোবোট সহকর্মীরা আরো পরিশীলিত হয়ে উঠছে, রোবোট ইঞ্জিনিয়ারদের এই প্রশ্নগুলি জোরদার করতে হবে। রোবটগুলি কেবল তাদের নিজস্ব নিরাপত্তা সংরক্ষণে নয় বরং বড় নৈতিক প্রশ্নগুলিতে সিদ্ধান্ত নিতে হবে। একটি মানুষ একটি রোবট হত্যা করতে হলে কি হবে? জালিয়াতি করতে? অন্য রোবট ধ্বংস করতে?

মেশিন ethics ধারণা কৃত্রিম বুদ্ধিমত্তা থেকে পৃথক করা যাবে না - এমনকি ভবিষ্যতে আমাদের ড্রাইভারহীন গাড়ির এমনকি আমাদের পক্ষে জীবন মৃত্যুদন্ড নির্বাচন করতে engineered করা হবে। যে কথোপকথন অগত্যা শুধু মার্কেটিং আদেশ প্রদানের চেয়ে আরো জটিল হবে।

$config[ads_kvadrat] not found