تاريخ الذكاء الاصطناعي

بدأ تاريخ الذكاء الاصطناعي في العصور القديمة، من خلال الأساطير والقصص والشائعات عن الكائنات الاصطناعية الموهوبة بالذكاء أو الوعي من قبل الحرفيين المهرة. زُرعت بذور الذكاء الاصطناعي الحديث من قبل الفلاسفة الكلاسيكيين الذين حاولوا وصف عملية التفكير الإنساني بأنها عبارة عن التلاعب الميكانيكي للرموز. تُوج هذا العمل باختراع الكمبيوتر الرقمي القابل للبرمجة في الأربعينيات من القرن العشرين، وهي آلة تعتمد على جوهر التفكير المنطقي الرياضي. ألهم هذا الجهاز والأفكار التي تقف وراءه حفنة من العلماء للبدء بجدية في مناقشة إمكانية بناء الدماغ الإلكتروني.

تأسس مجال أبحاث الذكاء الاصطناعى ضمن ورشة عمل في حرم كلية دارتموث خلال صيف عام 1956م. أولئك الذين حضروا سيصبحون قادة لأبحاث الذكاء الاصطناعى لعدة عقود. تنبأ العديد منهم بأن آلة بذكاء الإنسان لن تكون موجودة في أكثر من جيل، وأنهم حصلوا على ملايين الدولارات لجعل هذه الرؤية حقيقة.[1]

في النهاية، أصبح من الواضح أنهم قللوا بشكل كبير من صعوبة المشروع. في عام 1973م، استجابةً لانتقادات جيمس لايتهيل والضغط المستمر من الكونغرس، أوقفت الحكومتان الأمريكية والبريطانية تمويل البحوث غير الموجهة في مجال الذكاء الاصطناعي، وستُعرف السنوات الصعبة التي تلت ذلك باسم «شتاء الذكاء الاصطناعي». بعد سبع سنوات، ألهمت المبادرة اليابانية التي تبنتها الحكومة اليابانية، الحكومات والصناعة لتزويد مشاريع الذكاء الاصطناعي بمليارات الدولارات، ولكن بحلول أواخر الثمانينيات أُصيب المستثمرون بخيبة أمل بسبب عدم وجود الطاقة اللازمة للكمبيوتر (الآلات) وسحبوا التمويل مرةً أخرى.

ازدهر الاستثمار والاهتمام بالذكاء الاصطناعى في العقود الأولى من القرن الحادي والعشرين، عندما طُبقت عملية تعلم الآلة بنجاح على العديد من المشكلات في الأوساط الأكاديمية والصناعية بسبب الأساليب الجديدة، وطُبقت أجهزة الكمبيوتر القوية، وجُمعت مجموعات ضخمة من البيانات.

التعلم العميق والبيانات الضخمة والذكاء العام المصطنع: منذ عام 2011 حتى الآن

في العقود الأولى من القرن الحادي والعشرين، طُبق بنجاح الوصول إلى كميات كبيرة من البيانات (المعروفة باسم «البيانات الضخمة»)، وأجهزة الكمبيوتر الأرخص والأسرع، وتقنيات تعلم الآلة المتقدمة على العديد من المشاكل في جميع الأنظمة الاقتصادية. في الواقع، قدّر معهد ماكنزي العالمي في مقالته الشهيرة «البيانات الضخمة: الحدود التالية للابتكار والمنافسة والإنتاجية» أنه «بحلول عام 2009، كان لدى جميع القطاعات تقريبًا في الاقتصاد الأمريكي ما يعادل 200 تيرابايت على الأقل من معدل البيانات المخزنة».

بحلول عام 2016، وصل سوق المنتجات والأجهزة والبرامج المرتبطة بـالذكاء الاصطناعي إلى أكثر من 8 مليارات دولار، وذكرت صحيفة نيويورك تايمز أن الاهتمام بـالذكاء الاصطناعي وصل إلى حد «الجنون». بدأت تطبيقات البيانات الضخمة في الوصول إلى مجالات أخرى أيضًا، مثل نماذج التدريب في علم البيئة وللتطبيقات المختلفة في الاقتصاد. أدى التقدم في التعلم العميق (وخاصةً الشبكات العصبونية الالتفافية العميقة والشبكات العصبونية المتكررة) إلى التقدم والبحث في معالجة الصور والفيديو، وتحليل النص، وحتى التعرف على الكلام.[2][3][4][5]

التعلم العميق

التعلم العميق هو فرع من التعلم الآلي يصور نماذج تجريدية عالية المستوى في البيانات باستخدام رسم بياني عميق يحتوي على العديد من مستويات المعالجة. وفقًا لمبرهنة التقريب العام، فإن العمق ليس ضروريًا لتكون الشبكة العصبية قادرة على التقريب بين الوظائف العشوائية المستمرة. ومع ذلك، هناك العديد من المشكلات الشائعة للشبكات السطحية (مثل المطابقة) التي تساعد الشبكات العميقة على تجنبها. على هذا النحو، فإن الشبكات العصبونية العميقة قادرة على توليد نماذج أكثر تعقيدًا بشكل واقعي مقارنةً بنظيراتها السطحية.[6]

ومع ذلك، فإن التعلم العميق لديه مشاكل خاصة به. هناك مشكلة شائعة في الشبكات العصبونية المتكررة هي مشكلة تلاشي معدل الانحدار، حيث يتقلص معدل الانحدار بين الطبقات تدريجيًا ويختفي حرفيًا حيث يُقرّب إلى الصفر. هناك العديد من الطرق التي طُورت للتعامل مع هذه المشكلة، مثل وحدات الذاكرة قصيرة المدى المطولة.

يمكن أن تنافس بنى الشبكات العصبونية العميقة المتطورة في بعض الأحيان دقة الإنسان في مجالات مثل تصور الكمبيوتر، وتحديدًا في أمور مثل قاعدة بيانات إم إن آي إس تي والتعرف على إشارات المرور.[7]

يمكن لمحركات معالجة اللغة التي تعمل بمحركات البحث الذكية، التغلب بسهولة على البشر في الإجابة على الأسئلة السخيفة العامة (مثل نظام حاسوب آي بي إم واتسون)، وأحدثت التطورات الحديثة في التعليم العميق نتائج مذهلة في التنافس مع البشر، في أشياء مثل لعبة غو آند دوم (وهي لعبة أن يفوز أول شخص يطلق النار، التي أثارت بعض الجدل).[8][9][10][11]

البيانات الضخمة

تشير البيانات الضخمة إلى مجموعة من البيانات التي لا يمكن التقاطها وإدارتها ومعالجتها بواسطة أدوات البرامج التقليدية في إطار زمني معين. إنها كمية هائلة من قدرات صنع القرار والبصيرة وتحسين العمليات التي تتطلب نماذج معالجة جديدة. في عصر البيانات الضخمة بيغ داتا إيرا الذي كتبه فيكتور ماير شونبيرغ وكينيث كوك، تعني البيانات الضخمة أنه بدلًا من التحليل العشوائي (باستخدام عينة مسح)، تُستخدم جميع البيانات للتحليل. خصائص البيانات الضخمة (5 فولت) (التي اقترحتها شركة آي بي إم): الحجم والسرعة والتنوع والقيمة والدقة. إن الأهمية الاستراتيجية لتكنولوجيا البيانات الضخمة لا تتمثل في إتقان معلومات البيانات الضخمة، ولكن تخصصها في هذه البيانات المهمة. بمعنى آخر، إذا شُبهت البيانات الضخمة بصناعة ما، فإن مفتاح تحقيق الربحية في هذه الصناعة هو زيادة «قدرة معالجة» البيانات وتحقيق «القيمة الإضافية» للبيانات من خلال «المعالجة».[12][13][14]

الذكاء العام الاصطناعي

الذكاء الاصطناعي هو فرع من فروع علوم الكمبيوتر يحاول فهم جوهر الذكاء وإنتاج آلة ذكية جديدة تستجيب بطريقة مشابهة للذكاء البشري. تشمل الأبحاث في هذا المجال الروبوتات والتعرف على الكلام والتعرف على الصور ومعالجة اللغة الطبيعية وأنظمة الخبراء. منذ ولادة الذكاء الاصطناعي، أصبحت النظرية والتقنية أكثر نضجًا، وتوسعت مجالات التطبيق. من المُتوقع أن تكون المنتجات التكنولوجية التي جلبها الذكاء الاصطناعي في المستقبل عبارة عن «حاوية» للمعرفة الإنسانية. ويمكن للذكاء الاصطناعي أن يحاكي عملية المعلومات المتعلقة بالوعي والتفكير البشري. الذكاء الاصطناعي ليس ذكاءً بشريًا، لكنه يمكن أن يكون مشابه للتفكير البشري، ويمكن أن يتجاوز الذكاء البشري. يُشار أيضًا إلى الذكاء العام الاصطناعي باسم «الذكاء الاصطناعي القوي»، أو «الذكاء الاصطناعي الكامل» أو كقدرة الآلة على تنفيذ «الأداء الذكي العام». تحتفظ المصادر الأكاديمية على «الذكاء الاصطناعى القوي» للإشارة إلى الآلات القادرة على الشعور بالوعي.[15][16]

المراجع

  1. Kaplan، Andreas؛ Haenlein، Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. ج. 62: 15–25. DOI:10.1016/j.bushor.2018.08.004.
  2. "How Big Data is Changing Economies | Becker Friedman Institute". bfi.uchicago.edu (بالإنجليزية). Archived from the original on 2018-06-18. Retrieved 2017-06-09.
  3. Steve Lohr (17 أكتوبر 2016)، "IBM Is Counting on Its Bet on Watson, and Paying Big Money for It"، New York Times، مؤرشف من الأصل في 2020-02-29
  4. Hampton, Stephanie E; Strasser, Carly A; Tewksbury, Joshua J; Gram, Wendy K; Budden, Amber E; Batcheller, Archer L; Duke, Clifford S; Porter, John H (1 Apr 2013). "Big data and the future of ecology". Frontiers in Ecology and the Environment (بالإنجليزية). 11 (3): 156–162. DOI:10.1890/120103. ISSN:1540-9309. Archived from the original on 2019-04-03.
  5. LeCun، Yann؛ Bengio، Yoshua؛ Hinton، Geoffrey (2015). "Deep learning". Nature. ج. 521 ع. 7553: 436–444. Bibcode:2015Natur.521..436L. DOI:10.1038/nature14539. PMID:26017442.
  6. Baral، Chitta؛ Fuentes، Olac؛ Kreinovich، Vladik (يونيو 2015). "Why Deep Neural Networks: A Possible Theoretical Explanation". Departmental Technical Reports (Cs). مؤرشف من الأصل في 2018-04-17. اطلع عليه بتاريخ 2017-06-09.
  7. Ciregan، D.؛ Meier، U.؛ Schmidhuber، J. (يونيو 2012). Multi-column deep neural networks for image classification. ص. 3642–3649. arXiv:1202.2745. Bibcode:2012arXiv1202.2745C. CiteSeerX:10.1.1.300.3283. DOI:10.1109/cvpr.2012.6248110. ISBN:978-1-4673-1228-8. {{استشهاد بكتاب}}: |صحيفة= تُجوهل (مساعدة)
  8. University، Carnegie Mellon. "Computer Out-Plays Humans in "Doom"-CMU News - Carnegie Mellon University". www.cmu.edu. مؤرشف من الأصل في 2017-09-16. اطلع عليه بتاريخ 2017-06-10.
  9. "Innovations of AlphaGo | DeepMind". DeepMind. مؤرشف من الأصل في 2019-07-27. اطلع عليه بتاريخ 2017-06-10.
  10. "AlphaGo: Mastering the ancient game of Go with Machine Learning". Research Blog (بالإنجليزية الأمريكية). Archived from the original on 2018-05-04. Retrieved 2017-06-10.
  11. Markoff, John (16 Feb 2011). "On 'Jeopardy!' Watson Win Is All but Trivial". The New York Times (بالإنجليزية الأمريكية). ISSN:0362-4331. Archived from the original on 2020-01-08. Retrieved 2017-06-10.
  12. Laney، Doug (2001). "3D data management: Controlling data volume, velocity and variety". META Group Research Note. ج. 6 ع. 70.
  13. Marr, Bernard (6 مارس 2014). "Big Data: The 5 Vs Everyone Must Know". مؤرشف من الأصل في 2020-02-29.
  14. Goes، Paulo B. (2014). "Design science research in top information systems journals". MIS Quarterly: Management Information Systems. ج. 38 ع. 1.
  15. The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013 نسخة محفوظة 23 أغسطس 2019 على موقع واي باك مشين.
  16. (Kurzweil 2005, p. 260) or see Advanced Human Intelligence where he defines strong AI as "machine intelligence with the full range of human intelligence." نسخة محفوظة 16 أكتوبر 2019 على موقع واي باك مشين.

المصادر

  • أيقونة بوابةبوابة تاريخ العلوم
  • أيقونة بوابةبوابة تقانة المعلومات
  • أيقونة بوابةبوابة ذكاء اصطناعي
  • أيقونة بوابةبوابة روبوتيات
  • أيقونة بوابةبوابة علم الحاسوب
  • أيقونة بوابةبوابة علم النفس
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.