کارگروه تخصصی حقوق بشر و فناوریهای نوین
توسعه سریع فناوریهای نوین در شاخههای مختلف دیجیتالی، تسلیحاتی، اطلاعاتی و غیره، نظامهای اقتصادی، حقوقی، اجتماعی و فرهنگی را تحت تاثیر قرار داده و حتی ایده انسان بودن از منظر سنتی آن را با پیدایش هوش مصنوعی به چالش کشیده است. چنین فناوریهای نوینی یادآور این پرسش حیاتی هستند که: آیا فناوری در خدمت مصالح جوامع بشری، توسعه پایدار و حمایت از کرامت انسانی و حقوق بشر باقی خواهد ماند؟
در حقیقت این پرسش، ناشی از سردرگمی ما در مواجهه با دوگانه امید/هراس از آینده فناوریهای نوین است.
همچنین، نباید از خاطر دور بداریم که فناوری، به عنوان ابزار قدرتمند قدرت، کنترل و تحریف در حال تحول فضاهای عمومی و خصوصی همه ماست. افزون بر این، فناوری هوش مصنوعی علاوه بر پیشی گرفتن از ذهن آدمیان، حتی در باز-ساختاربندی فیزیکی انسان نیز نقش دارد. گرچه، توسل به فناوریهای نوین از قابلیت اعطای منافع بسیاری برای بشریت برخوردار است، اما سوءبهرهگیری و انحراف در تولید فناوریهای نوین مانند تسلیحات هوشمند مستقل میتواند به دغدغههای اصلی بشریت در سرتاسر جهان مبدل شود.
افزون بر این، نظامهای حقوقی و هنجارسازان تقنینی غالب کشورهای جهان غافل از فناوریهای نوین، تولیدکنندگان و مصرفکنندگان با سوءنیت چنین ابزارهایی را به حاشیه امنی سوق دادهاند که میتواند خطرات این فناوریها برای کرامت، تمامیت، استقلال، آزادی و حقهای بشری را مضاعف گرداند. همواره، این احتمال بالقوه وجود دارد که دستاوردهای علمی و فناوری، ارزشهای سنتی بشری چون عدالت و انصاف را به چالش کشیده و با باقی ماندن در حاشیه امن خود، پارادیمهای (الگووارههای) جدیدی را برخلاف مقتضای عقل انسانی و آموزههای دینی و اخلاقی برای بشریت ترسیم نماید و در فقدان ملاکهای قانونی و ضوابط حقوق بشری، حقها و آزادیهای بنیادین بیش از همیشه در معرض خطرات ناشی از پیشرفتهای فناوری قرار گیرد.
با توجه به تبعات و خطرات احتمالی فناوریهای نوین برای تحقق و تضمین حقوق بشر، دموکراسی و صلح، کرسی حقوق بشر، صلح و دموکراسی یونسکو در دانشگاه شهید بهشتی قصد دارد در قالب کارگروه تخصصی «حقوق بشر و فناوریهای نوین»، مسائل مهمی چون ارتباط حقوق بشر با جامعه نوین اطلاعاتی، فرصتهای و خطرات فناوریهای اطلاعاتی، تحلیل اخلاقی و فلسفی چالشهای مرتبط با فناوریهای نوین، ارتباط میان حقوق بشر و مالکیت فکری در سیاق توسعه فناوری، حق بر دسترسی به فناوریهای نوین و انتفاع از آنان برای ملتهای جهانهای غیر اول، فرصتهای شوم فناوریهای نوین برای تروریسم در اشکال مختلف آن از جمله تروریسم زیستی، تروریسم هستهای و غیره، بررسی رویکردهای تقلیلگرایانه علم و فناوری که به تحقیر و تضعیف بشریت منجر خواهند شد؛ حفاظت از حریم خصوصی انسان، بهویژه حریم خصوصی ژنهای انسانی؛ نقش حقوق بشر در تحقیقات زیستی و ژنتیکی و غیره را مورد مطالعه و پژوهش قرار داده و با برگزاری دورههای آموزشی، تشکیل نشستهای تخصصی، تالیف و ترجمه کتب مرتبط و توانمندسازی برای ارائه مشاوره و انجام تحقیقات علمی باکیفیت در حوزههای مرتبط با حقوق بشر و فناوری، نقش کرسی به عنوان یکی از پیشگامترین نهادهای آموزشی-پژوهشی در این حوزه محفوظ و تثبیت گردد.
از دیگر حوزههای مهم و مورد توجه کارگروه حقوق بشر و فناوریهای نوین میتوان به این موارد اشاره نمود: هوش مصنوعی، مهندسی ژنتیک، فناوری زیستی، تسلیحات هوشمند مستقل، اینترنت اشیاء و غیره پیوند میان فناوریهای نوین و حق بر توسعه پایدار؛ آسیبهای احتمالی فناوریهای دیجیتال برای توسعه و رعایت استانداردهای حقوق بشر؛ ابعاد فلسفی کنش میان حقوق بشر و فناوریهای نوین؛ آینده فناوری و حقوق بشر، تاثیرات فناوریهای نوین بر حقوق بشر، عدالت و کرامت انسانی؛ حقوق بشر، اخلاق و هوش مصنوعی؛ حقوق بشر در سیاق رشد و فراگیری فناوریهای نوین؛ توسعه و کاربرد هوش مصنوعی در خدمت پیادهسازی حقوق بشر؛ نقش فناوریهای نوین در بسط دموکراسی و صلح؛ ذینفعان، حقوق بشر و فناوریهای نوین (مقصود از ذینفعان، دولتها، جامعه مدنی، افراد، گروهها و ملتها هستند)؛ حریم خصوصی و هجوم فناوریهای دیجیتال و غیره.
- • انجام پژوهشهای کیفی و علمی و ارائه آموزشهای آکادمیک پیرامون پیامدهای توسعه فناوریهای نوین برای حقوق بشر، صلح و دموکراسی و کشف راهکارهای حقوقی برای مهار جوانب منفی چنین توسعهای از جمله تبعیض در دسترسی به فناوریهای نوین برای مردمان کشورهای در حال توسعه.
- • گردهمآیی اندیشمندان حوزههای مرتبط در قالب نشستهای تخصصی جهت تبادل آراء و تلاش برای کشف مسیرهای نوین و راهکارهای عملی؛
- • تولید محتوای باکیفیت علمی و کارشناسی در حوزههای تخصصی مربوطه؛
- • بررسی و نقد وضعیت فعلی نظام حقوقی کشور در مواجهه با مساله فناوریهای نوین و چالشها و فرصتهای آن؛
- • ترسیم تصویری علمی از ارتباط نسلهای چهارگانه حقوق بشر با فناوریهای نوین و غیره؛