بوترین: توقف نرم در محاسبات هوش مصنوعی برای آماده شدن برای هوش مصنوعی پرخطر
ویتالیک بوترین، بنیانگذار اتریوم، خواستار توقف نرم در محاسبات هوش مصنوعی برای آمادگی برای خطرات احتمالی است.
بوترین: توقف محاسبات هوش مصنوعی
بوترین خواستار «مکث نرم» در محاسبات هوش مصنوعی برای آمادگی در برابر هوش مصنوعی پرخطر شد
ویتالیک بوترین، یکی از بنیانگذاران اتریوم، خواستار یک «مکث نرم» در محاسبات هوش مصنوعی شده است تا جامعه بتواند برای خطرات احتمالی ناشی از هوش مصنوعی آماده شود. او استدلال میکند که در حال حاضر، تمرکز بیش از حد بر افزایش قدرت محاسباتی هوش مصنوعی است، در حالی که باید توجه بیشتری به ایمنی و اخلاق آن شود.
بوترین در یک پست وبلاگی در ۲۹ مه، استدلال کرد که جامعه باید در حال حاضر بر روی «توسعه و استقرار مکانیسمهای ایمنی و حاکمیت» تمرکز کند، نه صرفاً بر افزایش قدرت محاسباتی هوش مصنوعی. او گفت که «مکث نرم» به معنای کاهش سرعت پیشرفت در محاسبات هوش مصنوعی نیست، بلکه به معنای تخصیص منابع بیشتر به ایمنی و اخلاق هوش مصنوعی است.
بوترین در ادامه گفت که خطرات هوش مصنوعی «بسیار واقعی» هستند و جامعه باید برای آنها آماده شود. او به طور خاص به خطراتی مانند «سوء استفاده از هوش مصنوعی برای اهداف مخرب»، «ایجاد نابرابریهای اجتماعی» و «از دست دادن کنترل بر هوش مصنوعی» اشاره کرد.
او همچنین گفت که جامعه باید در مورد «چگونگی ادغام هوش مصنوعی در جامعه» بحث کند. او گفت که این بحث باید شامل «مسائل اخلاقی، اجتماعی و اقتصادی» باشد.
بوترین در پایان گفت که «مکث نرم» در محاسبات هوش مصنوعی یک «اقدام ضروری» است تا جامعه بتواند برای خطرات احتمالی ناشی از هوش مصنوعی آماده شود. او گفت که این مکث به جامعه فرصت میدهد تا «مکانیسمهای ایمنی و حاکمیت» را توسعه دهد و در مورد «چگونگی ادغام هوش مصنوعی در جامعه» بحث کند.
این درخواست بوترین در حالی مطرح میشود که نگرانیها در مورد خطرات هوش مصنوعی در حال افزایش است. بسیاری از کارشناسان هشدار دادهاند که هوش مصنوعی میتواند به یک تهدید جدی برای بشریت تبدیل شود اگر به درستی توسعه و مدیریت نشود.
با این حال، برخی دیگر استدلال میکنند که «مکث نرم» در محاسبات هوش مصنوعی میتواند پیشرفت در این زمینه را کند کند و فرصتهای زیادی را از دست بدهد. آنها میگویند که هوش مصنوعی میتواند مزایای زیادی برای جامعه داشته باشد، از جمله بهبود مراقبتهای بهداشتی، آموزش و حمل و نقل.
در نهایت، این بحث در مورد «مکث نرم» در محاسبات هوش مصنوعی یک بحث پیچیده است که نیاز به بررسی دقیق دارد. جامعه باید به طور جدی در مورد خطرات و مزایای هوش مصنوعی فکر کند و تصمیم بگیرد که چگونه میخواهد با این فناوری قدرتمند روبرو شود.
ویتالیک بوترین: ترمز دستی روی هوش مصنوعی، فعلاً!
ویتالیک بوترین، مغز متفکر اتریوم، یه پیشنهاد جالب داده: یه “مکث نرم” توی پیشرفت محاسبات هوش مصنوعی! یعنی چی؟ یعنی اینکه به جای اینکه فقط زور بزنیم هوش مصنوعی رو قویتر کنیم، یه کم هم به فکر ایمنی و اخلاقش باشیم.
چرا بوترین این حرفو زده؟
بوترین میگه الان همه تمرکزشون روی اینه که هوش مصنوعی رو سریعتر و قویتر کنن، ولی کسی به فکر این نیست که اگه یه روزی کنترلش از دستمون در بره چی میشه. اون میگه خطرات هوش مصنوعی “خیلی واقعی” هستن و باید براشون آماده باشیم. مثلاً ممکنه از هوش مصنوعی برای کارهای بد استفاده بشه، یا باعث بشه یه عده خیلی پولدار بشن و یه عده دیگه هیچی نداشته باشن، یا حتی ممکنه یه روزی هوش مصنوعی از ما باهوشتر بشه و دیگه نتونیم کنترلش کنیم!
مکث نرم یعنی چی؟
مکث نرم به این معنی نیست که کلاً دست از کار بکشیم. نه! بوترین میگه باید یه کم سرعت پیشرفت رو کم کنیم و به جاش بیشتر به فکر این باشیم که چطوری هوش مصنوعی رو ایمن کنیم و چطوری ازش به شکل درست استفاده کنیم. باید یه بحث جدی راه بندازیم که چطوری هوش مصنوعی رو وارد جامعه کنیم و چه قوانینی براش بذاریم.
مخالفین چی میگن؟
البته همه با حرف بوترین موافق نیستن. بعضیا میگن اگه سرعت پیشرفت هوش مصنوعی رو کم کنیم، خیلی فرصتها رو از دست میدیم. اونا میگن هوش مصنوعی میتونه خیلی به ما کمک کنه، مثلاً تو پزشکی، آموزش و حمل و نقل.
حرف آخر
به هر حال، بحث “مکث نرم” یه بحث خیلی مهمه که باید جدی بگیریمش. باید هم به فکر خطرات هوش مصنوعی باشیم و هم به فکر مزایاش. باید یه تصمیم درست بگیریم که چطوری میخوایم با این تکنولوژی قدرتمند روبرو بشیم.
نظر شخصی من: به نظر من حرف بوترین خیلی منطقیه. ما نباید فقط به فکر پیشرفت باشیم، باید به فکر عواقبش هم باشیم. هوش مصنوعی خیلی قدرتمنده و اگه حواسمون نباشه، ممکنه یه روزی پشیمون بشیم.
هشتگها: #هوش_مصنوعی #ویتالیک_بوترین #اتریوم #تکنولوژی #اخلاق_هوش_مصنوعی #ایمنی_هوش_مصنوعی #مکث_نرم #آینده_هوش_مصنوعی
کلمات کلیدی: ویتالیک بوترین، هوش مصنوعی، مکث نرم، محاسبات هوش مصنوعی، ایمنی هوش مصنوعی، اخلاق هوش مصنوعی، خطرات هوش مصنوعی، آینده هوش مصنوعی، اتریوم
منبع: Cointelegraph
ویتالیک بوترین, هوش مصنوعی, محاسبات هوش مصنوعی, اتریوم, خطرات هوش مصنوعی
Comments are closed.