چرا درباره مخاطرات هوش مصنوعی چیز زیادی نمی‌دانیم؟

 بسیاری از کشورهای جهان در رقابتی جدی در حوزه فناوری قرار دارند. اما نکته عجیب این است که بسیاری از افراد درباره اهمیت هوش مصنوعی چیز زیادی نمی دانند. این موضوع حتی در سطح دولت ها گسترده است.

 چرا درباره مخاطرات هوش مصنوعی چیز زیادی نمی‌دانیم؟

بسیاری از کشورهای جهان در رقابتی جدی در حوزه فناوری قرار دارند. اما نکته عجیب این است که بسیاری از افراد درباره اهمیت هوش مصنوعی چیز زیادی نمی دانند. این موضوع حتی در سطح دولت ها گسترده است. هنگامی که سازمان غذا و داروی ایالات متحده امکانات جدید اپل واچ را تصویب کرد پذیرفت که این ساعت ها می توانند جایگزینی برای مراقبت های بهداشتی باشد. اما متخصصان قلب و عروق هشدار دادند كه این برنامه می تواند منجر به نقض حریم خصوصی و حتی ایجاد اخلال در مراقبت های بهداشتی شود.

خوب است که یک ارزیابی معتبر از جوانب مثبت و منفی فناوری جدید داشته باشیم. اتفاقی که در ایالات متحده رخ نمی دهد. در انگلیس، فرانسه و اتحادیه اروپا، آژانسهای دولتی تأثیر اخلاقی، اجتماعی و اقتصادی هوش مصنوعی و سایر فناوریهای مهم جدید را بررسی می‌کنند. اما در حالی که تعداد زیادی از نهادها در ایالات متحده مشغول فعالیت های متعدد در حوزه هوش مصنوعی هستند، بررسی امنیت هوش مصنوعی در ایالات متحده چندان قوی اجرا نمی شود.

سوء استفاده از هوش مصنوعی در برخی کشورها بسیار خطرناک است. برای مثال سوء استفاده از هوش مصنوعی در چین در قالب رصد مداوم شهروندان یا دستکاری ژنوم های انسانی رخ می‌دهد.

اما چرا این موضوع تا این حد در ایالات متحد مورد غفلت واقعت شده است؟

بخشی از این بی توجهی به کمبود بودجه و بخشی دیگر نیز به عدم قوانین معتبر و مصوب مرتبط است. قوانینی که می توانند مهار کننده برخی تخلفات در حوزه هوش مصنوعی باشند.

جان ویلبانکس ، متخصص و تکنسین در Sage Bionetworks گفت: "اگرچه بسیاری از اساتید دانشگاه و اندیشکده های مبتنی بر فناوری ، داده های گسترده و آموزش ماشینی دارند، اما هیچ سیاست نظارتی برای کنترل هوش مصنوعی وجود ندارد. "

با این وجود این فناوری ها تأثیرات عمیقی بر آینده ما دارند و سؤالات عظیمی برای جامعه ایجاد می کنند. مسائل مربوط به حریم خصوصی بیش از هر چیز درباره هوش مصنوعی مطرح می شود. اریک پراکسلیس ، کارشناس امنیت فضای مجازی دانشگاه دوک در این خصوص می گوید: "مصرف کنندگان ، پزشکان و مؤسسات باید درک کنند که سلامت شخصی نوعی موضوع مرتبط با حریم خصوصی است و نمی توان به راحتی به هر برنامه ای اعتماد کرد."

یک خطر دیگر فروش یا نقض یا سوء استفاده از داده های الکترونیکی است. درست مثل همان اتفاقی که برای کاربران فیس بوک رخ داد. به گفته منتقدین ، الکتروکاردیوگرام موجود در اپل واچ ، که ضربان قلب قلب فرد را اندازه می گیرد و می تواند دفریب زدایی دهلیزی را تشخیص دهد. می تواد شامل خطاهای گسترده ای باشد یا حتی می تواند اطلاعاتی اشتباه درباره سلامت افراد منتشر کند. اریک توپول ، متخصص قلب ، نویسنده و بنیانگذار موسسه پژوهشی اسکریپس می گوید اساسا این نوع اندازه گیری سلامتی را فاقد اعتبار می داند چرا که نمی تواند با علم پزشکی تطابق کامل داشته باشد.

به نظر می رسد باز هم به موضوع پیشین باز می گردیم که در مقابل این نوع داده سنجی و ثبت داده هیچ قانون دقیقی وجود ندارد و به عبارتی دقیق تر هیچ بحث عمومی درباره چگونگی استفاده از داده ها میلیون ها آمریکایی وجود ندارد. این الگوریتم ها می توانند برای شکل دادن بیمه نامه استفاده شوند، ممکن است بر تصمیم پزشکان تأثیر بگذارند یا حتی در پژوهشهای علمی استفاده شوند اما حقوق مصرف کنندگان چه می شود؟

نکته نهایی این است که گفتگو در مورد ابعاد و حوزه حریم خصوصی هوش مصنوعی نیز بسیار مهم است. درک هوش مصنوعی بسیار سخت تر از دیگر حوزه ها است و عده ای معتقدند به همین دلیل تدوین قانون در این زمینه بسیار سخت است.توپول در این زمینه می گوید: "فرض کنید بخواهیم قوانینی درباره تکنولوژی های تشخیص چهره وضع کنیم چگونه قرار است ابعاد آن را تعیین کنیم. اساسا چگونه مشخص می شود کدام سازمانها حق دارند از این تکنولوژی ها استفاده کنند. "

نگاهی به قوانین نشان می‌دهد اروپایی ها نسبت به آمریکایی‌ها قوانینی سرسختانه تر برابر تکنولوژی و حتی شرکت های سرشناسی مثل گوگل، فیس بوک و مایکروسافت و ... وضع کرده اند. با این حال حتی قوانین اتحادیه اروپا نیز ناقص است.

منبع: انتخاب

24

شبکه‌های اجتماعی
دیدگاهتان را بنویسید

اخبار مرتبط سایر رسانه ها

    اخبار سایر رسانه ها