مطلب فعلی :

بررسی خطرات هوش مصنوعی که میتواند به یک مشکل جدی تبدیل شود!

رفتن به بالا

بررسی خطرات هوش مصنوعی که میتواند به یک مشکل جدی تبدیل شود!

نوشته admin

1 سال قبل

بدون دیدگاه

گوناگون

مجله اینترنتی دانستنی ها
بررسی خطرات هوش مصنوعی که میتواند به یک مشکل جدی تبدیل شود!

بررسی خطرات هوش مصنوعی که میتواند به یک مشکل جدی تبدیل شود!

با پیشرفت چشمگیر هوش مصنوعی و ساخت ربات های انسان نما 🤖 بسیاری از کارها اکنون میتوانند توسط ربات ها انجام شوند و احتمالا در آینده ربات ها قادر به انجام بسیاری از وظایف پیچیده تر انسان ها خواهند بود. در مطلب بررسی خطرات هوش مصنوعی که میتواند به یک مشکل جدی تبدیل شود ما به بیان دلایل مختلف چرا هوش مصنوعی خطرناک است می پردازیم.

خطر هوش مصنوعی برای انسان

The Risks of Artificial Intelligence

هوش مصنوعی موضوعی است که ذهن بسیاری از افراد را درگیر خود کرده است. این تا حد زیادی به خاطر فیلم های هالیوودی متعددی است که در این باره ساخته شده است. معمولا در فیلم های هالیوودی سناریوی نابودی علی تخیلی را مشاهده می کنیم که غالبا اغراق آمیز هستند. با این حال تعداد زیادی از گزارش های هشدار دهنده در مورد هوش مصنوعی وجود دارد که به دلیل بهبود کیفیت یادگیری ماشین و یادگیری عمیق ایجاد شده است.

داستان های علمی تخیلی در حال واقعی شدن هستند. این بدان خاطر است که سیستم های هوشمند هر روز در حال بهبود هستند و مهارت هایی مانند نگاه کردن؛ گوش دادن و صحبت کردن را به دست آورده اند. آنها می توانند از داده های حجیم یا بیگ دیتا ها الگوها و قوانین را استخراج کنند. در ادامه در مورد اینکه چرا هوش مصنوعی خطرناک است؟ بیشتر صحبت خواهیم کرد.

عدم شفافیت و خطر هوش مصنوعی

بسیاری از سیستم های هوش مصنوعی با شبکه های عصبی که به عنوان موتور کار می کنند ساخته شده اند. اینها سیستم های پیچیده و به هم پیوسته ای هستند که کمتر قادر به نشان دادن “انگیزه” خود برای تصمیم گیری هستند. شما فقط شاهد ورودی و خروجی هستند. سیستم بسیار پیچیده است. با این وجود، در مواردی که تصمیمات نظامی یا پزشکی باید اتخاذ شود مهم است که بتوانیم داده های خاصی که منجر به ایجاد تصمیمات خاص شده اند را ردیابی کنیم. چه فکر یا استدلالی منجر به ایجاد خروجی ها می شود؟ برای آموزش مدل از چه داده هایی استفاده شده است؟ تفکر مدل چیست؟ در حال حاضر این موارد در هاله ای از ابهام هستند.

استفاده از الگوریتم های مغرضانه

یکی از خطرات هوش مصنوعی برای بشریت این است که در حال حاضر نمونه های زیادی از سیستم هایی وجود دارد که نسبت به جمعیت سفید پوست به نژادهای پوستی دیگر آسیب می رسانند. به هر حال، وقتی که به سیستم داده های تبعیض آمیز داده می شود؛ نتایج مغرضانه ای تولید می شود و از آنجایی که خروجی توسط کامپیوتر تولید می شود، پاسخ درست فرض می شود.

شرکت ها و سازمان ها در حال حاضر تخصص کمی برای ارزیابی درست مجموعه داده ها دارند و نمی توانند هر گونه فرضیات و داده های مغرضانه را فیلتر کنند. آسیب پذیرترین گروه ها حتی بیش از حد معمول از این سیستم ها لطمه دیده اند و حتی ناعدالتی افزایش پیدا کرده است.

در نهایت ما نباید بدون اطلاع از چگونگی دست یابی الگوریتم ها و داده ها به نتایج، به خروجی متکی باشیم.

استفاده از الگوریتم های مغرضانه

عدم وجود مسئولیت پذیری

هنوز چیزهای زیادی در مورد جنبه های قانونی سیستم هایی که هر روز هوشمندتر از قبل می شوند، نامشخص است. وقتی سیستم های هوش مصنوعی مرتکب خطا می شوند؛ مسئولیت پذیری چگونه است؟ آیا باید مانند یک انسان قضاوت شوند؟ در سناریویی که در آن سیستم ها تا حد زیادی خودآموز و مستقل می شوند، چه کسی مسئول خواهد بود؟ آیا یک شرکت هنوز هم می تواند پاسخگوی الگوریتمی باشد که خودآموزی داشته باشد و متعاقبا مسیر خود را تعیین می کند و بر اساس حجم بزرگی از داده ها، نتایج خود را برای دستیابی به تصمیمات خاص اتخاذ کرده است؟ آیا ما خطای ماشین های هوش مصنوعی را می پذیریم حتی اگر عواقب مهلکی را در پی داشته باشد؟

از دست دادن اختیار

هر چه سیستم های هوشمند بیشتری را استفاده کنیم، بیشتر با مشکل از دست دادن اختیار مواجه می شویم. میزان وظیفه ای که ما به دستیاران مجازی هوشمند خود می دهیم چقدر است؟ آنها چه وظایفی دارند و آیا می توانند برای ما تصمیم گیری کنند؟ آیا باید استقلال سیستم های هوشمند را بیشتر گسترش دهیم یا باید کنترل آن را حفظ کنیم؟ ما به سیستم های هوشمند اجازه میدهیم تا بدون دخالت انسان تصمیم گیری هایی را اتخاذ و اجرا کنند؟ و آیا یک عملکرد پیش نمایش در سیستم های هوش مصنوعی هوشمند به صورت استاندارد نصب است؟

این خطر وجود دارد که با توسعه کامل فناوری ما استقلال را به طور کامل از دست دهیم و در واقع این خطر وجود دارد که در دنیایی قرار بگیریم که دیگر آن را درک نمی کنیم. ما نباید از همدلی و همبستگی بین افراد غافل شوید چون این خطر واقعی وجود دارد که تصمیمات دشوار مانند اخراج کارمندان را به راحتی به دستگاه های هوشمند بسپاریم چون خودمان این کار را سخت می دانیم.

خطرات هوش مصنوعی چیست؟ از بین رفتن حریم خصوصی

یکی دیگر از خطرات هوش مصنوعی از بین رفتن حریم خصوصی است. ما هر روز مقادیر زیادی داده ایجاد می کنیم (حدود ۲٫۵ میلیون ترابایت که ۱ ترابایت برابر ۱۰۰۰ گیگابایت است)و از کل داده های دیجیتالی در جهان؛ ۹۰ درصد در دو سال گذشته ایجاد شده است. یک شرط به مقادیر قابل توجهی داده نیاز دارد تا امکان عملکرد صحیح سیستم های هوشمند خود را فراهم کند.

به غیر از الگوریتم های با کیفیت بالا، قدرت یک سیستم هوش مصنوعی در داشتن مجموعه داده های با کیفیت بالا است. شرکت هایی که با هوش مصنوعی سر و کار دارند حجم زیادی از داده هایی که به ما مربوط می شود را در اختیار می گیرند. در نتیجه حریم خصوصی ما در حال از بین رفتن است. با این حال، هنگامی که متعاقبا از حریم خصوصی شخصی خود محافظت می کنیم؛ شرکت ها و سازمان ها از گروه های هدف مشابه استفاده خواهند کرد. افرادی که خیلی شبیه ما هستند و داده های مربوط به ما فروخته می شوند. داده ها مانند روغن روان کننده برای سیستم های هوش مصنوعی کار می کنند. حریم خصوصی ما در هر صورت در معرض خطر است.

حتی جنسیت، سن، قومیت و وضعیت ذهنی ما را می توانند با نرم افزارهای هوشمند ارزیابی کنند. تجزیه و تحلیل چهره، صدا، رفتار و ژست ها منجر به ایجاد پروفایل واضح تری از ما می شود. استفاده از دوربین های هوشمند امکان ایجاد پروفایل ها را در زمان واقعی فراهم می آورند. سیستم های هوشمند بهتر از همسر یا سایر اعضای خانواده مان قادر به تعیین وضعیت ذهنی ما هستند.

برنامه هایی که از فناوری هوش مصنوعی استفاده می کنند به شما اجازه می دهند تا شخصی را به عکس اضافه کنید و یا بدون هیچ مهارت خاصی اشیا و شخص را از عکس با چند کلیک حذف کنید! حتی سایت های ویرایش عکس آنلاین توسط هوش مصنوعی متنوعی در اینترنت وجود دارند که در این راه به شما کمک خواهند.

در چین برخی از افسران پلیس از عینک هایی با فناوری تشخیص چهره استفاده می کنند که دارای پایگاه داده ای با هزاران تصویر چهره مظنونین است. با این حال به خاطر داشته باشید که وقتی برخی از اظهارات سیاسی را بیان می کنید به راحتی در چین برچسب مظنون را خواهید خورد. یک سیستم اعتبار اجتماعی در چین وجود دارد که در آن شما بر اساس رفتار خاصی مورد قضاوت قرار می گیرید. افرادی که دارای نمرات بالاتری هستند امتیازاتی دریافت می کنند. علاوه بر این، این کشور دارای شبکه بسیار گسترده ای از دوربین های نظارتی با نرم افزار تشخیص چهره است.

خطرات هوش مصنوعی چیست؟ از بین رفتن حریم خصوصی

افزایش نفوذ شرکت های بزرگ فناوری از خطرات هوش مصنوعی

موضوع فوق با قدرت شرکت های بزرگ فناوری، یعنی فیس بوک، مایکروسافت، گوگل، اپل، علی بابا، تنسنت، بایدو و آمازون مرتبط است. این هشت شرکت فناوری توانایی مالی، داده‌ها و توانایی فکری برای بالا بردن کیفیت هوش مصنوعی را دارند. بنابراین این خطر وجود دارد که فناوری بسیار قدرتمند در دستان گروه نسبتاً کوچکی از شرکت‌های تجاری قرار گیرد و هرچه فناوری بهتر باشد، افراد بیشتری شروع به استفاده از آن کنند، فناوری موثرتر می شود و غیره.

این به شرکت های بزرگ مزیت بیشتری خواهد داد. انتقال الگوریتم‌ها در به اصطلاح «یادگیری انتقالی» روز به روز مؤثرتر می‌شود. در این صورت، به طور فزاینده ای داده های کمتری برای یک نتیجه خوب مورد نیاز خواهد بود. برای مثال، ترنسلیت گوگل، ترجمه با کیفیتی از انگلیسی به اسپانیایی و پرتغالی ارائه می کند. با کمک تکنیک های جدید یادگیری انتقالی، این سیستم اکنون قادر به ترجمه از اسپانیایی به پرتغالی و بالعکس با ورودی بسیار محدود است. شرکت های بزرگ فناوری، مالک داده ها و این مدل های یادگیری هستند.

تجربه نشان می‌دهد که هدف تجاری همیشه غالب خواهد بود و باید دید که این شرکت‌ها چگونه از این فناوری در آینده استفاده خواهند کرد.

دستیابی به ابر هوش مصنوعی

بحث در مورد معایب هوش مصنوعی به ابر هوش مصنوعی هم اشاره دارد. ابر هوش مصنوعی به سیستم های هوشمندی اشاره دارد که از چند جنبه از هوش انسان پیشی می گیرند. در نتیجه آنها قادر به کسب همه نوع مهارت و تخصصی (بدون دخالت انسان) هستند؛ می توانند خود را برای موقعیت های ناشناخته آموزش دهند و قادر به درک موضوع هستند.

ما باید این سناریو را جدی بگیریم و در درجه روی انتقال اخلاق روی سیستم های هوشمند تمرکز کنیم. ما نباید قوانین را به آنها بیاموزیم بلکه باید ملاحظات انسانی را به آنها آموزش دهیم بهتر است به آنها وجدان بدهیم در غیر این صورت تبدیل به شخصیتی ضد اجتماعی می شوند. مبادا فراموش کنیم که احتمالا ما تحت تاثیر سیستم هایی قرار می گیریم که با هدف خاصی برنامه ریزی شده اند و بدون در نظر گرفت مسائلی که ما به عنوان انسان مهم می دانیم (مانند همدلی و برابری اجتماعی) عمل می کنند. آنها به این روش برنامه ریزی شده اند و این یک داستان علمی تخیلی نیست.

فیس بوک یک مثال عالی از این است که چگونه یک سیستم هوش مصنوعی می تواند یک نتیجه کاملا منفی داشته باشد. در واقع، الگوریتم های فزاینده هوشمند فیس بوک تنها یک هدف دارند: نگه داشتن شما در پلتفرم، ایجاد حداکثر مشارکت با محتوا. جمع آوری کلیک ها و واکنش ها است. اما این سیستم به بازنمایی واقعی عینی موضوعات اهمیتی نمی دهد و فقط به زمانی که شما در پلت فرم می گذرانید علاقه دارد.

 تأثیر بر بازار کار یکی از مشکلات هوش مصنوعی

یکی دیگر از مشکلات هوش مصنوعی این است که در سال های آینده روی بازار کار فشار ایجاد خواهد کرد. افزایش سریع کیفیت هوش مصنوعی تضمین می کند که سیستم های هوشمند در انجام وظایف خاص بسیار ماهرتر می شوند. تشخیص الگوها در حجم وسیعی از داده ها، ارائه بینش های خاص و انجام وظایف شناختی توسط سیستم های هوش مصنوعی به صورت هوشمندانه انجام می شود. متخصصین باید توسعه هوش مصنوعی را از نزدیک زیر نظر داشته باشند زیرا سیستم ها به طور فزاینده ای قادر به نگاه کردن، گوش دادن، صحبت کردن، تجزیه و تحلیل، مطالعه و ایجاد محتوا هستند.

بنابراین مطمئنا افرادی هستند که موقعیت شغلیشان به خطر می افتد، نابرابری اجتماعی در سال های آینده افزایش پیدا خواهد کرد. چیز دیگری که باید در نظر داشته باشید این است که کار چیزی فراتر از حقوق آخر ماه است. کار به معنای پیگیری های روزانه، یک هدف، یک هویت، یک موقعیت و یک نقش در جامعه است. چیزی که باید از آن جلوگیری شود این است که گروهی از افراد در جامعه ظاهر می شوند که حقوق دریافت می کنند و مانند یک ربات با آنها رفتار می شود.

تسلیحات خودمختار

در تابستان امسال بود که ایلان ماسک به سازمان ملل درباره تسلیحات خودمختاری که توسط هوش مصنوعی کنترل می شود هشدار داد. وی به همراه ۱۱۵ کارشناس دیگر به تهدید احتمالا تسلیحات جنگی خودمختار اشاره کرد. تسلیحات خودمختار به ابزارهای قدرتمندی اشاره دارد که می توانند آسیب های زیادی را ایجاد کنند. این فقط تجهیزات نظامی واقعی نیست که خطرناک است. با توجه به فناوری و ساده تر شدن، ارزان تر شدن و کاربرپسند شدن؛ حالا این تجهیزات قابل دسترس تر خواهد شد و حتی افرادی که قصد آسیب رساندن دارند می توانند با صرف هزینه ای نه چندان زیاد به پهپادهای با کیفیت و دوربین دسترسی پیدا کنند که می توانند روی آن نرم افزاری مانند تشخیص چهره را نصب کنند که به پهپاد امکان می دهد یک فرد خاص را ردیابی کند و این خود سیستم است که درباره مرگ و زندگی او تصمیم می گیرد.

غیر قابل اعتماد شدن همه چیز

یکی دیگر از خطر های هوش مصنوعی این است که همه چیز غیر قابل اعتماد می شود. سیستم های هوشمند به طور فزاینده ای توانایی تولید محتوا را پیدا می کنند، آنها می توانند متن بنویسند؛ توییت کنند، عکس های را دستکاری کنند، صداها را شبیه سازی کنند و در تبلیغات هوشمند شرکت کنند.

سیستم های هوش مصنوعی می توانند زمستان را به تابستان و روز را به شب تبدیل کنند. آنها قادرند چهره های بسیار واقع گرایانه ای را از افرادی که هرگز وجود نداشته اند خلق کنند.

نرم افزار متن باز Deepfake قادر است تصاویر چهره ها را روی فیلم های متحرک بچسباند. بنابراین در ویدیو به نظر می رسد که شما در حال انجام کاری هستید (که درست نیست و در واقع اتفاق نیفتاده است). سلبریتی‌ها در حال حاضر تحت تأثیر این موضوع قرار گرفته‌اند، چون افراد بدخواه می توانند به راحتی فیلم های پورنوگرافیک از آنها بسازند. وقتی که این فناوری کمی کاربرپسندتر شد باج گیری و کلاهبرداری شروع می شود.

هوش مصنوعی و خطرات آن : ایجاد الگوریتم های هک

سیستم های هوش مصنوعی روز به روز هوشمند می شوند و به زودی می توانند بدافزار و باج افزار را با سرعت بالا و در مقیاس وسیع توزیع کنند. علاوه بر این، آنها به طور فزاینده ای در هک کردن سیستم ها و شکستن رمزها و از بین بردن امنیت مهارت پیدا می کنند. حتی ویروس های کامپیوتری با آزمون و خطا به طور فزاینده ای هوشمند می شوند. این به معنای دسترسی به اطلاعات بانک، بیمارستان ها و غیره است که باز هم منجر به باج گیری و کلاهبرداری از افراد می شود.

هوش مصنوعی و خطرات آن : ایجاد الگوریتم های هک

از دست دادن مهارت

یکی دیگر از خطرات هوش مصنوعی برای انسان این است که مهارت از دست می رود. ما به دلیل استفاده از کامپیوتر و گوشی مهارت های انسانی بیشتری را از دست می دهیم. نرم افزارهای هوشمند زندگی ما را ساده تر می کند و منجر به کاهش تعداد کارهای کسل کننده ای می شود که باشید انجام دهید (مانند اسکرول کردن، نوشتن با دست، حساب کتاب کردن های ذهنی، به خاطر سپردن شماره های تلفن، توانایی پیش بینی باران با نگاه کردن به آسمان و غیره).

ما مهارت های خود را از دست می دهیم و آنها را به فناوری واگذار می کنیم و اگر همچنان ادامه داشته باشد دیگر کسی نمی داند که چگونه آتش درست کند. حتی با نگاه کردن به همسرتان نمی توانید متوجه شوید که چه حسی دارد و آیا به کمک نیاز دارد یا نه. ما مهارت های خود را چه از نظر عملی و چه از نظر احساسی از دست خواهیم داد. آیا توجه، صمیمیت؛ عشق، تمرکز، تحمل نامیدی و همدلی جنبه هایی از زندگی ما نیستند که باید توسط فناوری تسخیر شوند؟

ناهماهنگی بین ما و ماشین

بخشی از آنچه که انسان ها برای ماشین های مجهز به هوش مصنوعی ارزش قائل هستند؛ کارایی و اثربخشی آنها است. اما اگر اهدافی که برای ماشین های هوش مصنوعی تعیین کرده ایم روشن نباشند می تواند خطرناک باشد. به عنوان مثال، دستور “در اسرع وقت مرا به فرودگاه برسان” ممکن است عواقب بدی داشته باشد. بدون مشخص کردن اینکه قوانین رانندگی باید رعایت شود؛ یک ماشین می تواند در سریع ترین زمان ممکن شما را به فرودگاه برساند و یا ممکن است باعث تصادف و ایجاد خسارات مالی و جانی شود.

مشکل هوش مصنوعی چیست؟ استفاده از اطلاعات علیه شما

از آنجایی که ماشین‌ها می‌توانند اطلاعات زیادی درباره شما جمع‌آوری، ردیابی و تجزیه و تحلیل کنند، این امکان وجود دارد که ماشین‌ها از این اطلاعات علیه شما استفاده کنند. تصور اینکه گوشی شما از طریق دوربینی که دارد تعداد دفعاتی که هنگام رانندگی با گوشی صحبت کرده اید را گزارش دهد و شرکت بیمه به شما بگوید که واجد شرایط دریافت بیمه نیستید، سخت است.

دستکاری اجتماعی

شبکه های اجتماعی از طریق الگوریتم های مستقل خود در بازاریابی بسیار موثر هستند. آنها می دانند ما کی هستیم، چه چیزی را دوست داریم و در حدس زدن آنچه که فکر می کنیم فوق العاده خوب هستند. تحقیقات هنوز برای تعیین همکاری کمبریج آنالیتیکا و سایر شرکت‌های مرتبط با شرکتی که از داده‌های ۵۰ میلیون کاربر فیس‌بوک برای تأثیرگذاری بر نتایج انتخابات ریاست‌جمهوری ۲۰۱۶ آمریکا و همه‌پرسی برگزیت بریتانیا استفاده کرده‌اند، ادامه دارد، اما اگر این اتهامات درست باشد. ، قدرت هوش مصنوعی را برای دستکاری اجتماعی نشان می دهد. با گسترش تبلیغات به افرادی که از طریق الگوریتم‌ها و داده‌های شخصی شناسایی شده‌اند، هوش مصنوعی می‌تواند آن‌ها را هدف قرار دهد و هر اطلاعاتی را که دوست دارد، در هر قالبی که قانع‌کننده‌تر باشد ( واقعی یا تخیلی)، منتشر کند.

نظرات و پیشنهادات شما؟

امروز در کلاسیک وب ما به بررسی خطرات هوش مصنوعی که میتواند به یک مشکل جدی تبدیل شود! پرداختیم. به نظر شما چه خطرات دیگری می تواند وجود داشته باشد؟ پیشنهادات خود را در بخش نظرات این مطلب با ما به اشتراک بگذارید.

  • نوشته admin
  • 1 سال قبل
  • بدون دیدگاه
  • گوناگون

آخرین دیدگاه ها

تا کنون دیدگاهی ثبت نشده است.

آخرین مطالب