Archive Pages Design$type=blogging

خداع أنظمة الذكاء الاصطناعي

في شهر يناير من العام الجاري بثت شركتا مايكروسوفت وعلي بابا مخاوف جديدة من استحواذ الروبوتات على وظائفنا في المستقبل القريب، إذ كشفت الشركتا...

في شهر يناير من العام الجاري بثت شركتا مايكروسوفت وعلي بابا مخاوف جديدة من استحواذ الروبوتات على وظائفنا في المستقبل القريب، إذ كشفت الشركتان -كلٌّ منهما على حدة- أن أنظمة الذكاء الاصطناعي لديهما تفوقت على البشر في اختبار لفهم النصوص. وقد صُمم ذلك الاختبار –المعروف باسم اختبار قاعدة بيانات ستانفورد للأسئلة والإجاباتStanford Question Answering Dataset (المعروف اختصارًا باسم SQuAD)- في الأساس لتدريب الذكاء الاصطناعي على إجابة أسئلة حول مقالات من موسوعة ويكيبيديا.

على غرار برامج التعرُّف على الصور التي تُستخدم بالفعل في تطبيقات الصور التجارية، تعطي هذه البرامج الانطباع بأن قدرة الآلات على محاكاة الإدراك البشري قد ازدادت، من خلال تحديد الصور أو الأصوات، والآن أصبحت قادرةً على قراءة النصوص بسرعة والإجابة سريعًا عن الأسئلة بدقة تضاهي دقة البشر.

غير أن الآلات الذكية ليست دائمًا كما تبدو. فخبراء التكنولوجيا الذين صمموا شبكات التعلُّم العميق وغيرها من أنظمة الذكاء الاصطناعي يكتشفون الآن مدى هشاشة منتجاتهم من خلال دراسة ما إذا كانت هذه الآلات "تعرف" شيئًا حقًّا أم لا. فبرامج اختبار التحمل –قبل تحميلها في أنظمة السيارات ذاتية القيادة، على سبيل المثال– ستكون أساسيةً لتجنُّب الأخطاء التي قد تؤدي إلى حوادث كارثية. يقول أنيش أثالي، باحث الدراسات العليا في مجال الذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا: "تتفوق الشبكات العصبية في بعض المجالات كثيرًا على البشر، وتحقق أداءً أفضل من أداء الإنسان، لكن لها سمةً غريبةً تجعلنا ننجح في خداعها بمنتهى السهولة".

كشفت ورقتان بحثيتان لم يُنشرا بعد لكلٍّ من أثالي وطلاب آخرين في معهد ماساتشوستس للتكنولوجيا، يُعرفون معًا باسم فريق "لابسيكس" LabSix، نجاح الفريق في خداع أحد أنظمة التعلُّم العميق –وهو نظام مدرب للتعرُّف على الأشياء من بين آلاف الأمثلة والنماذج– بحيث تعرّف على صورة لمتزلج على الجليد على أنها صورة كلب (انظر ملف PDF) وصورة سلحفاة على أنها صورة بندقية (انظر ملف PDF). واستَخدمت دراسةٌ أخرى نُشرت في ديسمبر أجراها فريق "جوجل برين" Google Brain المتخصص في أبحاث الذكاء الاصطناعي، منهجًا مختلفًا لخداع البرنامج لتصنيف موزة على أنها جهاز تحميص خبز.



 

في الأسلوب الذي اتبعه فريق "لابسيكس" أجرت خوارزمية تعديلًا طفيفًا في لون كل وحدة بكسل في الصورة أو درجة سطوعها. ورغم أن الصورة تبدو كما هي بالنسبة لك أو لي، فإن هذه التغييرات الطفيفة جعلت برنامج الذكاء الاصطناعي يفسرها على أنها شيء مختلف تمامًا. ويصف أثالي التمويه في تعديل الصورة بأنه "يجعل المهمة أقرب للواقع الفعلي. فإذا رأيت شخصًا يضع لافتةً على الطريق في عالمنا الحقيقي تبدو ساطعة الألوان وفيها أنماط غريبة، ربما يظن من يراها أن ثمة أمرًا مريبًا، وسيتم التحقق منها، أما إذا كان هناك شيء يبدو لك كلافتة حول حدود السرعة لكن سيارتك ذاتية القيادة تتعرف عليه على أنه شيء مختلف تمامًا، فهذا سيناريو مفزع".

وفي الدراسة التي أجراها فريق "جوجل برين"، اتبع الفريق نهجًا مختلفًا. بدلًا من تغيير كل صورة على حدة، أرادوا تطوير خدعة تقنية يمكن وضعها في أي مشهد أو صورة، وكان هذا يعني وضع صورة جديدة فريدة –قطعة شديدة الاختلاف– تتسبب في إرباك نظام التعلُّم العميق وتَشتُّت انتباهه فلا يركز على الأجزاء أو الأشياء الأخرى، لذا كان من الضروري أن تبرز هذه القطعة بشدة ولا تتداخل فيما حولها. قال توم براون -الذي يعمل في شركة جوجل- عبر رسالة بالبريد الإلكتروني: "نظرًا لأن هذه القطعة تتحكم فقط في وحدات البكسل داخل الدائرة الصغيرة التي وُضعت فيها، تَبيَّن أن أفضل طريقة لخداع برامج التصنيف هي جَعْل القطعة المغايرة من الصورة بارزةً وملحوظةً للغاية. في الأسلوب التقليدي لإرباك نظام الذكاء الاصطناعي نُجري تغييرًا طفيفًا في جميع وحدات البكسل في صورة واحدة، لكن في هذا الأسلوب، نُجري تغييرًا جوهريًّا في عدد محدود من وحدات البكسل".

لكي ينجح هذا الأسلوب خارج المختبر، يجب أن تكون القطعة المختلفة مرنةً في التعامل مع المشتِّتات البصرية في العالم الحقيقي. في الدراسات السابقة، كان تغيير اتجاه الصورة المُعدلة أو سطوعها يبطل مفعول هذه التقنية، فنظام الذكاء الاصطناعي سيصنف صورة معدلة لقِطَّة عند عرضها في وضع رأسي على أنها صورة أحد الأطباق المكسيكية، ولكن عند قلب صورة القطة على جانبها سيدرك النظام على الفور أنها قطة. وعلى النقيض، إذا عُرضت صورة تلك القطعة في أي إضاءة وبأي اتجاه، فستنجح في خداع البرنامج. وقد كتب براون يقول: "لقد كان إعداد هذه القطعة شديد الصعوبة، لأن ذلك كان يعني تجربتها في عدد كبير من مشاهد المحاكاة حتى نستطيع التوصل إلى قطعة واحدة تنجح في كل هذه المشاهد".

رغم أن الأمثلة تبدو بسيطة، فإن دلالاتها المحتملة في الواقع خطيرة إلى أقصى درجة. ويرى أثالي أن هذه الخدعة التقنية قد تخدع سيارةً ذاتية القيادة وتجعلها تتجاهل لافتة على الطريق تطلب التوقف، أو قد تُخفي صورة قنبلة عند فحصها بأشعة إكس في أثناء فحص الأمتعة في المطارات. وتهدف الأبحاث التي يجريها كلٌّ من أثالي وبراون إلى المساعدة على تحديد نقاط الضعف في التكنولوجيا قبل تنفيذها على نطاق واسع.

[caption id="attachment_7111" align="aligncenter" width="800"] وضع نظام التصحيح العدائي ، الذي يشبه محمصة مخدر ، بالقرب من صورة الموز ، جعل نظام التعرف على الصور من Google يحدد محتوى الصورة كمحمصة بدلاً من قطعة الفاكهة ذات الصلة. [/caption]

ويشير جاري ماركوس -أستاذ علم النفس بجامعة نيويورك- إلى أن الذكاء الاصطناعي معرض للخداع بهذه الطريقة؛ نظرًا لأن الآلات -على حد قوله- "لا تفهم المشهد كاملًا". فالذكاء الاصطناعي يتعرف على الأشياء لكنه لا يستطيع فهم حقيقة الشيء أو استخداماته، فهو "لا يفهم حقًّا العلاقات السببية بين الأشياء، كما لا يفهم مَن يفعل ماذا ولمَن ولماذا".

بعد تداول الأخبار حول تفوُّق أنظمة الذكاء الاصطناعي في اختبارات فهم النصوص، قلل ماركوس من شأن هذه النتائج، قائلًا: إن ما فعلته الآلات ليس له علاقة بالفهم الحقيقي، وكتب تغريدةً على موقع التواصل الاجتماعي "تويتر" يقول: "كشف اختبار ستانفورد أن الآلات قادرة على معرفة الفقرات المطلوبة في النص ذي الصلة بالأسئلة، وليس أنها تفهم في الواقع مغزى هذه الفقرات".

ويرى ماركوس أن صناعة الذكاء الاصطناعي يجب أن تأخذ مفاتيحها من علم النفس المعرفي لتطوير برامج قادرة على الفهم، بدلًا من تدريب نظام الذكاء الاصطناعي على مئات الآلاف من الأمثلة. ففي حين أن برامج التعلم العميق قادرة على التعرف على كلب، بل وتصنيف سلالته من صورة لم ترها من قبل، فإنها لن تعرف أن الإنسان هو الذي يصطحب الكلب في نزهة، وليس العكس، كما أنها لا تفهم ما هو الكلب في الأساس وكيف يفترض به التفاعل مع العالم من حوله. ويقول ماركوس: "نحن بحاجة إلى بنية مختلفة للذكاء الاصطناعي تعتمد على التفسير، وليس على تمييز الأنماط فحسب".

وحتى يتمكن الذكاء الاصطناعي من تحقيق هذا الغرض، فإن وظائفنا بأمان -على الأقل لفترة من الوقت.

دانا سميث

المصدر: موقع للعلم
https://www.scientificamerican.com/arabic/articles/news/how-to-hack-an-intelligent-machine/

التعليقات

الاسم

أتاتورك أحياء إختراع أدوية إذاعة أرامكو أردوغان أسبانيا إستاكوزا إسرائيل أسلحة إصابات إعلام أفريقيا أقباط إقتصاد إكتشاف أكراد الأباء الإباحية الإبتكار الأبراج الأبناء الإتحاد الأوربي الأثرياء الأجانب الإجهاض الأحزاب الأخبار الأخوان الإخوان الأديان الأردن الأرض الإرهاب الإرهابيين الأزهر الإستجمام الأسرة الإسلام الإسلامية الإسلاميين الإصطناعي الأطفال الإعتداء الأعسر الإعلام الإغتيال الإغتيالات الأغنياء الأفلام الإباحية الأقباط الإقتصاد الأكراد الألتراء الألتراس الإلحاد الألعاب الإلكترونية الألمان الأم الفردية الأمارات الإمارات الإمارات العربية الأمازيغ الأمراض الأمم المتحدة الأمن الأمواج الأمومة الأميرة دايانا الإنتاج الإنتحاريين الإنترنت الإنتفاضة الإنجليز الإنفصال الانفلونزا الأهرام الأهلي الأوسكار البترول البحر البدو البشر البصرة البناء البنك المركزي البوذية البورصة البيئة التجميل التجنيد التحديث التحرش الترفيه التشدد التطرف التغيير التقشف التليفون التهرب الضريبي الثدي الثقافة الثورة الجاذبية الجامعات الجراثيم الجزائر الجسد الجفاف الجماعات الإسلامية الجماهير الجنس الجنسي الجنود الجنيه الجهاد الجيش الحاسب الحاسوب الحب الحرارة الحرب الحرس الثوري الحزب الجمهوري الحشد الشعبي الحكومة الحوثيون الختان الخديوي الخلافة العثمانية الخليج الخليج العربي الدانمارك الدولار الدولة الديكتاتورية الديمقراطية الدين الدينية الديون الذكاء الذكاء الإصطناعي الربيع العربي الرجل الرقمي الروبوت الروبوتات الروهينجا الري الزراعة السرطان السعودية السفر السكان السلام السلة السلطان السلطة السلطة الفلسطينية السلطوية السلفية السلفيين السمنة السموم السنة السود السودان السوريون السياحة السياسة السياسي السيسي السينما السيول الشباب الشرطة الشرق الشرق الأوسط الشريعة الشمس الشيعة الصحة الصحراء الصحف الصحفيين الصخري الصدر الصواريخ الصين الضرب الطاقة الطعام الطفل الطوارئ ألعاب العاصمة العاطفة العالم العثمانيون العدالة العدالة الإجتماعية العراق العرب العربي العسكر العقل العلاج العلم العلماء العلمانية العلويون العمال العمل العملة العنصرية العنف العنف الأسري الغاز الغذاء الغرب الفراعنة الفرعونية الفساد الفضاء الفضائيات الفقر الفلسطنيين الفلك الفن القاعدة القانون القاهرة القبائل القدس القذافي القوات المسلحة القومية العربية الكبد إلكترونيات الكنيسة الكنيسة اليونانية الكهنة الكواكب الكورة الكوليرا الكويت اللاجئين الليرة المال المانيا المتشددين المتطرفين المتوسط المثالي المجتمع المجلس العسكري المحمول المدينة المنورة المذبحة المرأة المراهقين المرض المريخ المساواة المستقبل المسلسلات المسلمون المسيحية المصريين المعلومات المغرب المقاتلون المقاولون المقبرة الملائ الأمن الملك توت المليشيات المناخ المنطقة العربية المنظمات الموبايل الموساد الموضة المياه الميراث النجوم النساء النظافة النظام النفايات النفط النووي النيل الهند الهوس الهوليجنز الهوية الوالدة باشا الوراثة الولادة الوليد بن طلال الوهابية اليابان ألياف ضوئية اليمن اليهود اليهودية اليورو اليونان أمراض أمريكا امريكا أموال أميركا اميركا أميريكا إنترنت إنجلترا أهرامات الجيزة أوربا اوربا أوروبا أوسكار إيبولا إيران إيفان الرهيب أيمن الظواهري بازل باسم يوسف باكستان براكين بريطانيا بنجلاديش بوتفليقة بوتن بوتين بووليود بيراميدز بينج تاريخي تجارة تحت المجهر ترامب تركيا تشارلز تشلسي تصوير تعليم تغير مناخي تكنولوجيا تليفزيون تونس تويتر ثروات جبهة النصرة جدة جراحة جنس جوته جوجول جونسون جيرتود بيل حاسب حزب الله حفتر حفريات حماس خاشقجي خامئني خداع خليفة حفتر خيال علمي دارفور داعش دبي دراما دوري السلة الأمريكي ديانا ديمقراطية ديناصور رأس رام الله رجل ألي رسوم روبرت ماردوخ روسيا روما رياضة زراعة زرع زواج ساعة أبل سامي عنان ستراتفور سرت سرطان سفينة فضاء سكن سنيما سوء التغذية سوريا سياسة سيف الإسلام القذافي سيناء سينما شارلز شعاع شفيق شمال أفريقيا شيخ الأزهر صحافة صحة صدام حسين صندوق النقد الدولي صنعاء صوت طائرات طاقة طاقة نووية طب طبي طعمية طفيل طلاق عبد القادر الجزائري عبد الناصر عدن عرب عسكرية عصابات عقل علاج علوم وصحة عمل عنان غاز غزة فحم فرعون فرنسا فضائيات فقر فلافل فلسطين فن فن وثقافة فنزويلا فوكس نيوز فيتنام فيديو فيروس فيروس سي فيس بوك فيصل فيضان فيورينتنا قارون قبرص قتل قش الأرز قطر قمع قنصوة قواعد كائنات كاس العالم كاسيني كافاليرز كافاليير كاميرا كتالونيا كربون كرة القدم كليوباترا كوكايين كيسنجر كيفين دورانت لاجئين لبنان لغة لوحات ليبرون جيمس ليبيا ليزر ليفربول لييبا مائير كاهانا ماري كوري مال وأعمال مايكروسوفت متجددة مجتمع مجتمع وإعلام مجتمعات مجلس الأمن محمد بن سلمان محمد صلاح مختبرات مخدرات مدرسة مراهقات مرتزقة مرض مركبات الفضاء مسلسل مسلسلات مسلمين مصر مصري مطلقات معارك معدل وراثيا معدن معرض مكة ملفات مليشيا مهاجرين موبايل موسى موسيقى مي تو مينمار نتنياهو نساء نسخ نظام الفقيه نفط نفظ نقابة نيكسون هاري هوليوود وباء وعد بلفور وقود ولي العهد وليام ياهو accessories animals anxiety art artist assignment attraction aviation bag beach beautiful destinations Best Catering Best Catering Services bicycle bicylce tours bigger bitter juice Blood Pressure botox brain brazilian buildings business Business Website cannes activity career cartoon Catering Services cave cheap hotels cheap loan cigarette climbing clothing communication Control Blood Control Blood Pressure cook cosmetic coursework craziness credit cremation deppression dermal Ease Stiffness education effective Engine Optimization entrepreneur ethnic wear europan explore eyes face finance fire damage focus food food tips fruit furniture garden gardening glasses gym hand tools health herbal Herbal Treatment High Blood home home loan home tips Hypertension Naturally immune system india Joint Pain Joint Pain Relief kindle life life hack loans marriage mba meal money movie music natural Natural Joint Natural Joint Pain occassion office Orthoxil Plus outdoor Pain Relief Pain Relief Treatment paris pets photographer pumpkin quality Reduce Hypertension Reduce Hypertension Naturally relationship relaxed Relief Treatment round face runner sea Search Engine Search Engine Optimization Search Engines self help self improvements shoes Side Effects sleep smoking snowboard social spain sports stories stress Stresx Capsules style success surgery travel trees vegetable voice voyage Website Design wi-fi winter work world zodiac sign
false
rtl
item
الجيل الجديد: خداع أنظمة الذكاء الاصطناعي
خداع أنظمة الذكاء الاصطناعي
https://geel25elgaded.com/wp-content/uploads/2018/04/خداع-الذكاء-الصناعي2.jpg
الجيل الجديد
http://geel25elgaded.blogspot.com/2018/04/blog-post_19.html
http://geel25elgaded.blogspot.com/
http://geel25elgaded.blogspot.com/
http://geel25elgaded.blogspot.com/2018/04/blog-post_19.html
true
6246319857275187510
UTF-8
لايوجد اي تدوينة المزيد المزيد الرد اغلاق الرد حذف By الصفحة الرئيسية صفحة مقالة المزيد مواضيع ذات صلة التسميات الارشيف البحث لا يوجد اي تدوينة الصعود الى الاعلى Sunday Monday Tuesday Wednesday Thursday Friday Saturday Sun Mon Tue Wed Thu Fri Sat January February March April May June July August September October November December Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec just now 1 minute ago $$1$$ minutes ago 1 hour ago $$1$$ hours ago Yesterday $$1$$ days ago $$1$$ weeks ago more than 5 weeks ago