يعتبر مايكل ل. جوردن Michael L. Jordan من رواد تعلم الآلة Machine Learning. يملك الكثير من الخبرات وسيرة ذاتية ضخمة في هذا المجال، تم اختياره لكتابة المقدمة لتقرير مجلس الأبحاث العالمي National Research Council في عام 2013 ” التحديات والعوائق في تحليل البيانات الضخمة.” يدرّس البروفسور مايكل ل. جوردن في جامعة كاليفورنيا، في بيركلي. اخترنا لكم في هايبرستيج بعض المواضيع المميزة من مقابلة أجراها مع مجلة IEEE Spectrum مؤخراً . يمثل وهم البيانات الضخمة والرقاقات الإلكترونية المستوحاة من الدماغ البشري جزءاً مما نفهمه خطأً بالأساس
مواضيع المقابلة…

  • لم يجب أن نتوقف عن استخدام تعابير تشبيه بالبشر عند الحديث عن الحواسيب
  • عن معلوماتنا الضبابية عن رؤية الآلة Machine Vision
  • لماذا يمكن للبيانات الكبيرة Big Data أن تكون فشلاً كبيراً؟
  • ماذا كان ليفعل بمبلغ 1 بليون دولار
  • كيف يمكننا تجاوز الحديث عن التفرد التكنولوجي Singularity
  • ماذا يعني اختبار تورينغ Turing Test بالضبط
  • لماذا يجب علينا التوقف عن استخدام تعابير التشبيه بالبشر عند الحديث عن الحواسيب

يرى جوردن في المواضيع التي تطرح للنقاش والمتداولة حول تعلم الآلة الكثير من المعلومات الخاطئة، تحاول وسائل الإعلام أن تفعل مابوسعها لتأتي بمواضيع يقرأها المهتمون، وتبالغ وأحياناً في ذلك. بالنسبة لموضوع تعلّم الآلة فهو يمثل الموضوع الأكثر قابلية للتهويل والمبالغة، حيث استخدمه البعض لإعادة توصيف الشبكات العصبية في الثمانينات و حتى منذ الستينات. يظنّ الناس دائماً أن تعلّم الآلة مرتبط بشكل كبير بعلم الأعصاب، وأن التعلّم العميق Deep Learning يستفيد إلى حد بعيد من طريقة معالجة الدماغ البشريّ للمعلومات، بالإضافة إلى الطريقة التي يتبعها الدماغ ليتعلم أو يتخذ القرارات أو حتى التعامل مع كميات ضخمة من المعلومات. وهذا بالطبع أمر خاطئ.
من جهة أخرى يقول الصحفي لي غومز Lee Gomes من IEEE Spectreum خلال اللقاء: ” كوني فرداً ينتمي إلى طرف وسائل الإعلام لدي مداخلة على ما تقوله، لأنني أظن أن الأكادميين يتوقون أيضاً ليكتب عنهم الناس.”
يجيب جوردن :” نعم، أظن أن بيننا شراكة من نوع ما.”
MLJيتابع جوردن حديثه ويستدرك بأنه لايريد أن يعمم حديثه على الجميع، حيث لايرى أن جميع علماء الحاسب يعملون بنفس الطريقة، أو أن جميع علماء الأعصاب يعملون بطريقة واحدة أيضاً. لكنه يرى أن الأمر سيستغرق علماء الأعصاب عقوداً أو حتى مئات السنين للوصول إلى المبادئ الأعمق في علم الأعصاب. ولا يرى أن التطور فارق مراحله الأولى في هذا المجال حتى الآن. فلا فكرة لدينا حتى الآن عن الطريقة التي نستقبل فيها العالم المحيط، وكيف نتذكر، وكيف نتصرف انطلاقاً من الدماغ. لافكرة لدينا حتى الآن عن طريقة تخزين العصبونات للمعلومات في الدماغ، كيف تعالج هذه الخلايا الحيّة المعلومات، ماهي القواعد التي تتبعها، أو ماهي الخورزميات التي تستخدمها في كل ذلك وغيرها الكثير من الأسئلة. لذلك يقول جوردن أننا لم نصل بعد إلى المرحلة التي تسمح باستخدام مفاهيمنا عن طريقة عمل الدماغ لترشدنا في محاولات بناء أنظمة ذكيّة أكثر مما هو موجود اليوم.
يبالغ جوردن أحياناً في انتقاد الواقعية العصبيّة Neural Realism وهي الاعتقاد بأن مجرد مشاركة جزء صلب أو برنامج معين لخصائص معينة مع الدماغ يجعله أكثر ذكاءً، كأن يقول أحدهم مثلاً بأن برنامجه يشبه الدماغ البشري في عمله لأنه متوازٍ وظيفياً إلى حد بعيد.
يقول جوردان في ذلك أن هذه مجرد اصطلاحات، يمكن لها أحياناً أن تكون مفيدة. يظن جوردان أن علم الحواسيب وقع في الثمانينات تحت سيطرة المعمارية التعاقبية Sequential Architecture، حيث كانت البرامج تنفذ بشكل تعاقبي، على شكل سلسلة، وكان هناك حاجة للخروج من هذه المرحلة. بذلك بحث الناس عن اصطلاحات استمدت من طريقة عمل الدماغ المتوازية، وكان ذلك نافعاً إلى حد ما.
تطور الموضوع لاحقاً، ولم يكن علم الأعصاب أو الواقعية العصبية الأمر الذي أدى إلى حدوث التطور. حيث ارتكزت الخوارزميات الأكثر نجاحاً في مجال التعليم العميق على تقنية سميت Back Propagation أو التكرار إذا صح القول، حيث لدينا عدة طبقات من وحدات المعالجة. تأتي النتيجة واحدة من مجمل هذه الطبقات ثم تعيد إرسال الإشارة إليها جميعاً لتغيير كافة المتغيرات. ومن هنا يقول جوردن أن هذه ليست الطريقة التي يعمل وفقها الدماغ. أتت هذه الخطوة بعيدةً كل البعد عن الواقعية العصبيّة Neural Realism لكنها أدت إلى إحداث تطور معقول، لكننا لانجد أي حديث عن هذه القصة لأن الجميع وببساطة يفضلون الحديث عن كل المحاولات للحصول على نظم تعمل بالطريقة التي يعمل بها الدماغ والتي لم تصل يوماً إلى نفس الدرجة من النجاح.
نقرأ دائماً مقالات يصف فيها المهندسون رقاقاتهم الجديدة وتصاميمها بطريقة سيئة للقراء. حيث يتحدثون عن الأعصاب الموجودة في رقاقاتهم مثلاً. العصبون عبارة عن خلية حية على درجة عالية من التعقيد. لذلك فمن المؤكّد أنهم يبالغون كثيراً عند تشبيه رقاقاتهم البسيطة بالنسبة لتعقيد العصبونات.
يقول جوردن أنه علينا التمييز بين مجالين يتم فيهما استخدام كلمة العصبونات Neurons اليوم. الأول مجال التعلم العميق Deep Learning. في التعلم العميق تجتمع العصبونات بشكل خطي يمر في شبكة لاخطية معقدة. ويمكن لأي مهندس مختص في الكهرباء أن يفهم عمل هذه الأنظمة اللاخطية.
أما المجال الثاني فيتحدث دائماً عن إيجاد طريقة لمحاكاة عمل الدماغ البشريّ أو نموذج مصغر لدارة عصبية واقعية على الأقل. لكن هذه الأبحاث غالباً ما تأتي مجردة من أي فكرة عن الطريقة الخوارزمية التي يتبعها نظام مماثل. كما أنها لا تأتي مقرونة بنظام قادر على التعلم يستقبل البيانات ويحل المسائل التي تواجهه. لا تتعدى الأبحاث الحالية والإنجازات التي نشهدها اليوم سوى بنى تقنية ذات تركيب معماري معين مع أمل أن يأتي يوم يكتشف فيه الناس خوارزميات مفيدة تتمكن من العمل مع هذه البنى.
1. معلوماتنا الضبابية عن رؤية الآلة MachineVision
نملك كبشر القدرة على التعامل مع مواقف متشابكة أو مواضيع كثيرة في آن واحد. يناقش البشر الواقع المحيط بهم منطقيّاً ويختارون الأفضل بناءً على تساؤلات مثل ماذا لو جلست هناك؟ ماذا لو وضعت هذا فوق ذاك؟ هذا بحد ذاته يفوق قدرات أي آلة موجودة اليوم مهما بلغت سرعتها في معالجة المعلومات والبيانات. يفيد التعلم العميق في بعض الحالات فقط مثل التعرف على شكل جسم ما أمامك. لكن المشكلة التي تتعلق برؤيا الآلة وحملها على اكتساب قدرة التعلم كبيرة جداً. نملك اليوم آلات قادرة على حل بعض المشاكل لكن سيكون من الخطأ أن نقول أن الآلات قادرة على حل كل المشاكل.
لقد أحرزنا بعض التقدم طبعاً فيما يتعلّق برؤيا الآلة كابتكار خاصية التعرف على الوجوه مثلاً وإذا ما استمر العمل على تطوير هذه الخاصيات مع التركيز على موضوع رؤية الآلة يمكن حل هذه المشكلة مع الوقت بالتأكيد. يتم العمل حالياّ على أنظمة تمكن الآلات من التعرف على أشكال الأجسام أمامها كالأكواب أو الحيوانات مثلاً مع التمييز بين أنواعها، لكن من الصعب جداً حل مشكلة كتواجد أكثر من جسم أمام الآلة لتتعرف عليها جميعاً وتقوم بالربط بينها مثلاً أو إيجاد خوارزميات تمكن الآلة من التفاعل مع البيئة المحيطة بها. هناك الكثير من المشاكل تنتظر الحل والمشكلة أن لا حل لها على المدى المنظور.
2. كيف يمكن للبيانات الضخمة Big Data أن تكون مشكلة حقيقية
بالعودة للحديث عن موضوع الـ Big Data والهوس المنتشر الآن حول هذا الموضوع، يقول جوردن أن شهيتنا للتوصل إلى الفرضيات تزداد أكثر كلما كان لدينا كم أكبر من المعلومات. إن كانت هذه الشهية تسبق في نموها نمو البيانات الإحصائية فمن المحتمل أن تكون استنتاجاتك خاطئة.ففي قاعدة بيانات كلاسيكية مثلاً، تحتوي على بضعة آلاف من الناس. يمكنك التفكير بكل منهم كصف مستقل في هذه القاعدة، وأما الأعمدة فستكون خصائص ومزايا هؤلاء الناس: أعمارهم،أطوالهم، أوزانهم، مدخولهم، وما إلى ذلك. إن عدد التركيبات التي قد تنتج عن هذه الأعمدة سينمو إلى أضعاف مضاعفة مع عدد الأعمدة. فإن كان لدينا الكثير من الأعمدة ـ وهو ما نجده في قواعد البيانات الحديثة ـ سنحصل على ملايين الصفات أو السمات للشخص الواحد.
إن بدأنا بالنظر إلى تركيبات هذه الميزات ــ إن كنت تعيش في بكين وتركب الدراجة إلى العمل، وتعمل في وظيفة معينة، وتبلغ من العمر عدداً معيناً من السنين ــ فما هو احتمال إصابتك بداء معين أو ما هو احتمال إعجابك بإعلان نشرته؟ يمكن أن تصل أعداد هذه التركيبات والتكهنات إلى عدد الذرات الموجودة في الكون!
يقول جوردن أننا نستخف بموضوع الكم الهائل من البيانات المتواجد حالياً في كافة المجالات، لابد أن التحاليل التي تتم حالياً على قواعد البيانات المتوافرة تستطيع أن تقدم بعض النتائج لكن إلى حد معين. لكن علينا أن نكون حذرين إذ يجب أن نضع مجالاً للخطأ حول جميع التوقعات التي تصدر كنتائج عن هذه التحاليل. وهذا ليس موجوداً في ثقافة أبحاث العمل على تطوير لغة تعلم الآلة. يرى جوردن في ذلك خطورة كبيرة، فإذا استخدم الناس الكم الهائل من البيانات المتوافرة حالياً والنتائج الآتية من تحليلها دون أخذ الاحتياط من مجال الخطأ في التجانس أو البيانات المضللة Noisy Data، نمط التجميع، وكل الأمورالتي يجب عليك أن تأخذها على محمل الجد سواء كنت مهندساً أو إحصائياً.
يمكن أيضاً مشاهدة هذه المحاضرة لجوردن حول موضوع البيانات الضخمة ورؤيته الشخصية لها

3. ماذا كنت لتفعل بمبلغ بليون دولار؟
يقول جوردن أنه لو حصل على مبلغ بليون دولار لأنفقها على أبحاث معالجة اللغة الطبيعية Natural Language Processing، لكن مالذي يراه جوردن ناقصاً في المجهود الذي تبذله غوغل على مشروعها Google Translate؟ يقول جوردن أنه متأكد أن غوغل تقوم الآن بكل ماكان ليقوم به. لكنه يظن أن غوغل ومشروعها بالترجمة ليس المشكلة الوحيدة التي تعانيها اللغة. غوغل لم تتوصل إلى الآن إلى نظام يمكنه الإجابة على أسئلة معقدة من مثيل “ماهي ثاني أكبر مدن كاليفورنيا والتي لا تقع قرب نهر؟” لو أدخلنا هذا السؤال في محرك بحث غوغل فمن المؤكد أننا لن نحصل على إجابة مفيدة.
إن أردنا العمل على تطوير قدرة الآلة على الإجابة على أي من أسئلتنا ـ أي إيجاد طريقة تفهم فيها الآلة أسئلتنا ـ فيجب أن تربط كل ماله علاقة باللغة في مجال واحد تصب فيه جميع أبحاثنا. يقول جوردن أن تطوير نظام قادر على الحوار غير ممكن إلا في مجال واحد تحاور فيه الآلة وليس بمقدورنا الآن أن نبتكر نظاماً قادراً على الحوار بشكل عام حتى لو كان المبلغ المسخر للبحث مقدراً ببليون دولار. لكن لاينفي جوردان القدرة عل التطور في الحوار مع الآلة انطلاقاً من مجال واحد. ففي مجال التعرف على الوجوه مثلاً طورت في مجال واحد وهو الحوار مع تعابير وتفاصيل الوجه لكن وفي نفس الوقت بدأنا في مجال التعرف على الأوجه نرى إمكانية للتوسع بحيث تصبح الآلة قادرة على التعرف على أشياء أخرى أمامها كأشكال الأجسام.
4. تجنب الحديث عن التفرد
من الملفت أيضاً في الحوار تجنب جوردن الحديث عن نظرية التفرد التكنولوجي Technological Singularity، حيث يقول أن لا علاقة لهذه النظرة بالباحثين والعلماء الأكاديميين. لايرى جوردن في هذه النظرية سوى فلسفة عن طريقة تغير المجتمع وتغير الأفراد، لكن وبما أنها لاتنتج أي أفكار يمكن تحويلها إلى خوارزميات فلا فائدة منها مطلقاً.

لايوجد المزيد من المقالات