الذكاء الاصطناعي
الذكاء الاصطناعي
هو قدرة الحاسوب أو الروبوت الخاضع لسيطرة الحاسوب على تنفيذ العمليات التي تقوم بها عادةً الكيانات الذكية. تُستخدم هذه العبارة عادةً لوصف مسعى إنشاء أنظمة ذكاء اصطناعي تتضمن وظائف معرفية شبيهة بالوظائف الإدراكية البشرية، مثل التفكير المنطقي وإيجاد المعنى والتعميم والتعلم القائم على الخبرة. وقد تمت برمجة الحواسيب الرقمية التي تعمل عن طريق الذكاء الاصطناعي لأداء وظائف معقدة للغاية، مثل إيجاد براهين للنظريات الرياضية أو لعب الشطرنج، بكفاءة عالية منذ ابتكارها في أربعينيات القرن الماضي. حتى مع التحسينات المستمرة في ذاكرة الحاسوب وسرعة المعالجة، لا يمكن لأي برنامج حتى الآن محاكاة قدرة الإنسان على التكيف بشكل كامل عبر مجموعة أكبر من المواضيع أو في الأنشطة التي تنطوي على قدر كبير من المعرفة المشتركة. ومع ذلك، فقد حققت بعض البرامج مستوى مقبول من الأداء
ماهو الذكاء ?What is intelligence
ان أبسط السلوكيات البشرية تُنسب إلى الذكاء، في حين أن أكثر سلوكيات الحشرات تعقيدًا لا تُعتبر عادةً مؤشرًا على الذكاء. ما هو الفرق؟ لننظر إلى سلوك دبور الحفار Sphex ichneumoneus. عندما تعود أنثى الزنبور إلى جحرها بالطعام، تقوم أولاً بإيداعه على العتبة، ثم تتحقق من وجود دخلاء داخل جحرها، وبعد ذلك فقط، إذا كان المكان خاليًا، تحمل طعامها إلى الداخل. تنكشف الطبيعة الحقيقية لسلوك الزنبور الغريزي إذا ما تم إزاحة الطعام على بعد بضع بوصات من مدخل جحرها أثناء وجودها بالداخل: فعند خروجها من الجحر، تكرر العملية برمتها كلما تم إزاحة الطعام. يجب أن يشمل الذكاء - الغائب بشكل واح في حالة الزنبور - القدرة على التكيف مع الظروف الجديدة.
التعلم learning
هناك عدد من الأشكال المختلفة للتعلم كما هو مطبق على الذكاء الاصطناعي. ابرزها التعلم عن طريق التجارب و الاخطاء المرتكبة. على سبيل المثال، قد يحاول برنامج كمبيوتر بسيط لحل مسائل الشطرنج ”زميل في واحد“ تجربة الحركات عشوائيًا حتى يتم العثور على شريكه. قد يقوم البرنامج بعد ذلك بتخزين الحل مع الموضع بحيث يتذكر الحل في المرة التالية التي يواجه فيها الكمبيوتر نفس الموضع. هدا الحفض الذكي للنمادج الفردية - المعروف باسم التعلم العميق Deep learning- سهل التنفيذ شيئا ما على الكمبيوتر. أما المشكلة الأكثر صعوبة فهي مشكلة تنفيذ ما يسمى بالتعميم. التعميم هو تطبيق التجارب السابقة على مواقف مشابهةا. على سبيل المثال
Reasoning المنطق
الاستدلال هو استخلاص الاستدلالات المناسبة للموقف. تصنف الاستدلالات إما استنتاجية أو استقرائية. المتال الأول: ”يجب أن يكون فريد إما في المتحف أو في المقهى. وهو ليس في المقهى؛ وبالتالي، فهو في المتحف"،
ومثال الثاني: “الحوادث السابقة من هذا النوع كانت بسبب تعطل الأجهزة. وهذا الحادث من نفس النوع؛ لذلك من المحتمل أن يكون سببه تعطل الآلات.“ والفرق الأكثر أهمية بين هذين الشكلين من الاستدلال هو أنه في الحالة الاستنتاجية تضمن صحة المقدمات صحة النتيجة، بينما في الحالة الاستقرائية فإن صحة المقدمات في الحالة الاستقرائية تدعم النتيجة دون أن تعطي تأكيدًا مطلقًا. المنطق الاستقرائي شائع في العلوم، حيث يتم جمع البيانات وتطوير نماذج مبدئية لوصف السلوك المستقبلي والتنبؤ به - إلى أن يجبر ظهور بيانات شاذة على مراجعة النموذج. أما المنطق الاستنتاجي فهو شائع في الرياضيات والمنطق، حيث يتم بناء هياكل معقدة من النظريات غير القابلة للدحض من مجموعة صغيرة من البديهيات والقواعد الأساسية.
لقد كان هناك نجاح كبير في برمجة أجهزة الكمبيوتر لاستخلاص الاستدلالات. ومع ذلك، فإن الاستدلال الحقيقي يتضمن أكثر من مجرد استخلاص الاستدلالات: فهو يتضمن استخلاص استدلالات ذات صلة بحل مشكلة معينة. وهذه واحدة من أصعب المشاكل التي تواجه الذكاء الاصطناعي
حل المشاكل
يمكن وصف حل المشكلات، خاصة في الذكاء الاصطناعي، بأنه بحث منهجي من خلال عدد من القرارات الممكنة ودلك بهدف الوصول الى هدف تم تحديده من قبل. تنقسم طرق حل المشكلات إلى طرق ذات أغراض خاصة وأخرى ذات أغراض عامة. فالطريقة ذات الغرض الخاص مصممة خصيصًا لمشكلة معينة وغالبًا ما تستغل ميزات محددة جدًا للموقف الذي تنطوي عليه المشكلة. وعلى النقيض من ذلك، تنطبق طريقة الأغراض العامة على مجموعة واسعة من المشاكل. أحد الأساليب ذات الأغراض العامة المستخدمة في الذكاء الاصطناعي هو تحليل نهاية الوسيلة - وهو عبارة عن تقليل الفرق بين الحالة الحالية والهدف النهائي خطوة بخطوة أو تدريجياً. يختار البرنامج إجراءات من قائمة من الوسائل - في حالة الروبوت البسيط، قد تتكون هذه الإجراءات من PICKUP و PUTDOWN و MOVEFORWARD و MOVEBACK و MOVELEFT و MOVERIGHT - حتى الوصول إلى الهدف.
تم حل العديد من المشاكل المتنوعة بواسطة برامج الذكاء الاصطناعي. بعض الأمثلة هي إيجاد الحركة الفائزة (أو تسلسل الحركات) في لعبة لوحية، وابتكار براهين رياضية، والتلاعب ”بالأشياء الافتراضية“ في عالم مولد بواسطة الحاسوب
التصور Perception
في الإدراك الحسي يتم مسح البيئة عن طريق أجهزة حسية مختلفة، حقيقية أو اصطناعية، ويتحلل المشهد إلى أجسام منفصلة في علاقات مكانية مختلفة. يتعقد التحليل بسبب حقيقة أن الجسم قد يبدو مختلفًا اعتمادًا على الزاوية التي يُنظر منها واتجاه وشدة الإضاءة في المشهد ومدى تباين الجسم مع المجال المحيط به. في الوقت الحاضر، الإدراك الاصطناعي
متقدمة بما فيه الكفاية لتمكين أجهزة الاستشعار البصرية من التعرف على الأفراد وتمكين المركبات ذاتية القيادة من القيادة بسرعات معتدلة على الطريق المفتوح
اللغة language
اللغة هي نظام من العلامات التي لها معنى بالاصطلاح. وبهذا المعنى، لا يجب أن تقتصر اللغة على الكلمات المنطوقة. فإشارات المرور، على سبيل المثال، تشكل لغة مصغرة، إذ من المتعارف عليه أن ⚠ تعني ”خطر أمامك“ في بعض البلدان. ومن مميزات اللغات أن الوحدات اللغوية لها معنى بالاصطلاح، والمعنى اللغوي يختلف كثيرًا عما يسمى بالمعنى الطبيعي، ويتجلى ذلك في عبارات مثل ”هذه السحب تعني المطر“ و”انخفاض الضغط يعني أن الصمام معطل“.
من الخصائص المهمة للغات البشرية الكاملة - على النقيض من نداءات الطيور وإشارات المرور - هي إنتاجيتها. فاللغة المنتجة يمكنها صياغة مجموعة غير محدودة من الجمل.
يمكن للنماذج اللغوية الكبيرة ChatGPT أن تستجيب بطلاقة بلغة بشرية للأسئلة والجمل. وعلى الرغم من أن هذه النماذج لا تفهم اللغة فعلياً كما يفهمها البشر، بل تكتفي باختيار الكلمات الأكثر احتمالاً من غيرها، إلا أنها وصلت إلى مرحلة لا يمكن فيها تمييز إجادتها للغة عن إجادة الإنسان العادي. ما الذي ينطوي عليه الفهم الحقيقي إذن، إذا لم يتم الاعتراف بأن الكمبيوتر الذي يستخدم اللغة مثل المتحدث البشري الأصلي لا يفهمها حتى لو كان يستخدمها كمتحدث أصلي؟ لا توجد إجابة متفق عليها عالميًا على هذا السؤال الصعب
الأساليب والأهداف في الذكاء الاصطناعي النهج الرمزي مقابل النهج الاتصالي
تتبع أبحاث الذكاء الاصطناعي منهجين مختلفين ومتنافسين إلى حد ما، المنهج الرمزي (أو ”من أعلى إلى أسفل“)، والمنهج الاتصالي (أو ”من أسفل إلى أعلى“). يسعى النهج التنازلي إلى تكرار الذكاء من خلال تحليل الإدراك بشكل مستقل عن البنية البيولوجية للدماغ، من حيث معالجة الرموز - ومن هنا جاءت التسمية الرمزية. ومن ناحية أخرى، ينطوي النهج التصاعدي من الأسفل إلى الأعلى على إنشاء شبكات عصبية اصطناعية في محاكاة بنية الدماغ - ومن هنا جاءت التسمية التوصيلية.
لتوضيح الفرق بين هذه الأساليب، فكر في مهمة بناء نظام مزود بماسح ضوئي يتعرف على الحروف الأبجدية. عادةً ما يتضمن النهج التصاعدي تدريب شبكة عصبية اصطناعية من خلال تقديم الأحرف لها واحدًا تلو الآخر، وتحسين الأداء تدريجيًا عن طريق ”ضبط“ الشبكة. (يعمل الضبط على ضبط استجابة المسارات العصبية المختلفة للمنبهات المختلفة). وعلى النقيض من ذلك، يتضمن النهج التنازلي عادةً كتابة برنامج كمبيوتر يقارن كل حرف بأوصاف هندسية. ببساطة
الأنشطة العصبية هي أساس المنهج التصاعدي، في حين أن الأوصاف الرمزية هي أساس المنهج التنازلي.
في كتاب أساسيات التعلم (1932)، اقترح إدوارد ثورندايك، عالم النفس في جامعة كولومبيا بمدينة نيويورك، لأول مرة أن التعلم البشري يتكون من بعض الخصائص غير المعروفة للوصلات بين الخلايا العصبية في الدماغ. في كتاب ”تنظيم السلوك“ (1949)، اقترح دونالد هيب، عالم النفس في جامعة ماكجيل، مونتريال، أنه
يتضمن التعلم على وجه التحديد تعزيز أنماط معينة من النشاط العصبي عن طريق زيادة احتمال (وزن) إطلاق الخلايا العصبية المستحثة بين الوصلات المرتبطة بها.
في عام 1957، قام اثنان من المدافعين الأقوياء عن الذكاء الاصطناعي الرمزي - ألين نيويل، الباحث في مؤسسة راند، سانتا مونيكا، كاليفورنيا، وهربرت سيمون، عالم النفس وعالم الحاسوب في جامعة كارنيجي ميلون، بيتسبرغ - بتلخيص النهج التنازلي فيما أسموه فرضية نظام الرموز الفيزيائية. وتنص هذه الفرضية على أن معالجة تراكيب الرموز كافية، من حيث المبدأ، لإنتاج ذكاء اصطناعي في الحاسوب الرقمي، وعلاوة على ذلك، فإن الذكاء البشري هو نتيجة لنفس النوع من التلاعبات الرمزية
وخلال الخمسينيات والستينيات من القرن العشرين، تم اتباع النهجين التنازلي والتصاعدي في آن واحد، وحقق كلاهما نتائج جديرة بالملاحظة، وإن كانت محدودة. إلا أنه خلال السبعينيات، تم إهمال الذكاء الاصطناعي من القاعدة إلى القمة، ولم يبرز هذا النهج مرة أخرى حتى الثمانينيات. في الوقت الحاضر، يتم اتباع كلا النهجين، ومن المعترف به أن كلاهما يواجه صعوبات. تعمل التقنيات الرمزية في العوالم المبسطة ولكنها عادةً ما تنهار عند مواجهة العالم الحقيقي؛ وفي الوقت نفسه، لم يتمكن الباحثون من أسفل إلى أعلى من تكرار الأنظمة العصبية حتى لأبسط الكائنات الحية. تحتوي دودة Caenorhabditis elegans، وهي دودة خضعت لدراسات كثيرة، على ما يقرب من 300 خلية عصبية معروفة تمامًا بنمط ترابطها. ومع ذلك، فشلت النماذج الاتصالية في محاكاة حتى هذه الدودة. من الواضح أن الخلايا العصبية للنظرية الاتصالية هي تبسيط مبالغ فيه للشيء الحقيقي.
الذكاء العام الاصطناعي (AGI)، والذكاء الاصطناعي التطبيقي، والمحاكاة المعرفية
باستخدام الأساليب الموضحة أعلاه، تحاول أبحاث الذكاء الاصطناعي الوصول إلى واحد من ثلاثة أهداف: الذكاء الاصطناعي العام (AGI) الذكاء الاصطناعي التطبيقي أو المحاكاة المعرفية أو الذكاء الإصطناعي الضيق . يهدف الذكاء الاصطناعي العام (يُطلق عليه أيضًا الذكاء الاصطناعي القوي) إلى بناء آلات تفكر. ويتمثل الطموح النهائي للذكاء العام الاصطناعي في إنتاج آلة لا يمكن تمييز قدرتها الفكرية الإجمالية عن قدرة الإنسان. و للحد الان فان التقدم التي تم الوصول اليه متفاوتا. وعلى الرغم من التقدم المحرز في النماذج اللغوية الكبيرة، إلا أنه من المثير للجدل ما إذا كان بإمكان الذكاء الاصطناعي المُستند إلى الذكاء الاصطناعي المُستند إلى الذكاء الاصطناعي أن ينبثق من نماذج أكثر قوة أو إذا كانت هناك حاجة إلى نهج مختلف تمامًا. في الواقع، يرى بعض الباحثين العاملين في الفرعين الآخرين للذكاء الاصطناعي أن الذكاء الاصطناعي المتقدم لا يستحق المتابعة.
يهدف الذكاء الاصطناعي التطبيقي، المعروف أيضًا باسم المعالجة المتقدمة للمعلومات، يمكن تطبيقها تجاريا و كمتال على ذلك الانضمة الطبية كالتشخيص الطبي و انضمة تجارة اسهم الشركات في البرصة . وقد حقق الذكاء الاصطناعي التطبيقي نجاحًا كبيرًا.
في المحاكاة الإدراكية، تُستخدم أجهزة الكمبيوتر لاختبار النظريات حول كيفية عمل العقل البشري - على سبيل المثال، النظريات حول كيفية تمييز الناس و تمييز الوجوه او استرجاع الذكريات . المحاكات الادراكية هي بالفعل أداة قوية في كل من علم الأعصاب و علم النفس المعرفي .
AI technology تكنولوجية الذكاء الاصطناعي
ازدادت قدرة الشبكات العصبية على اتخاذ طبقات إضافية وبالتالي العمل على مشاكل أكثر تعقيداً في عام 2006 مع اختراع تقنية ”التدريب المسبق الجشع على مستوى الطبقات“، حيث تبين أنه من الأسهل تدريب كل طبقة من طبقات الشبكة العصبية بشكل منفرد بدلاً من تدريب الشبكة بأكملها من المدخلات إلى المخرجات. وقد أدى هذا التحسن في تدريب الشبكات العصبية إلى نوع من التعلم الآلي يسمى ”التعلم العميق“، حيث تحتوي الشبكات العصبية على أربع طبقات أو أكثر، بما في ذلك المدخلات الأولية والمخرجات النهائية. وعلاوة على ذلك، فإن هذه الشبكات قادرة على التعلم غير الخاضع للإشراف - أي اكتشاف الميزات في البيانات دون توجيه أولي.
ومن بين الإنجازات التي حققها التعلم العميق التقدم في تصنيف الصور حيث يتم تدريب الشبكات العصبية المتخصصة التي تسمى الشبكات العصبية التلافيفية (CNNs) على السمات الموجودة في مجموعة من الصور لأنواع مختلفة من الأجسام. ومن ثم تتمكن الشبكة العصبية الملتفة من أخذ صورة مُدخَلة، ومقارنتها بالسمات الموجودة في الصور الموجودة في مجموعة التدريب الخاصة بها، وتصنيف الصورة على أنها لقط أو تفاحة على سبيل المثال. إحدى هذه الشبكات، وهي شبكة PReLU-net من قبل Kaiming He والمتعاونين معه في Microsoft Research، صنفت الصور بشكل أفضل من الإنسان.
تفوق إنجاز ديب بلو في التغلب على بطل العالم في الشطرنج غاري كاسباروف على إنجاز AlphaGo من شركة DeepMind، الذي أتقن لعبة ”جو“، وهي لعبة أكثر تعقيداً من الشطرنج. وقد تعلمت شبكات AlphaGo العصبية من اللاعبين البشر ومن خلال اللعب بنفسها. وقد هزمت أفضل لاعب في لعبة جو لي سيدول 4-1 في عام 2016. وقد تفوقت ألفا جو بدورها على ألفا جو زيرو، والتي تمكنت في النهاية من هزيمة ألفا جو 100-0، بدءاً من قواعد لعبة جو فقط. تمكنت شبكة عصبية أكثر عمومية، Alpha Zero، من استخدام نفس التقنيات لإتقان الشطرنج والشوجي بسرعة.
لقد وجد التعلم الآلي تطبيقات في العديد من المجالات بخلاف الألعاب وتصنيف الصور. فقد استخدمت شركة Pfizer للأدوية هذه التقنية للبحث بسرعة عن ملايين المركبات المحتملة في تطوير علاج Paxlovid لعلاج فيروس كورونا المستجد (كوفيد-19). تستخدم Google التعلم الآلي لتصفية الرسائل غير المرغوب فيها من البريد الوارد لمستخدمي Gmail. تستخدم البنوك وشركات بطاقات الائتمان البيانات التاريخية لتدريب النماذج على اكتشاف المعاملات الاحتيالية.
التزييف العميق هو عبارة عن وسائط من إنتاج الذكاء الاصطناعي يتم إنتاجها باستخدام خوارزميتين مختلفتين للتعلّم العميق: إحداهما تُنتج أفضل نسخة طبق الأصل من صورة أو فيديو حقيقي، والأخرى تكتشف ما إذا كانت النسخة المقلدة مزيفة، وإذا كانت كذلك، تُبلغ عن الاختلافات بينها وبين النسخة الأصلية. تقوم الخوارزمية الأولى بإنتاج صورة اصطناعية وتتلقى ملاحظات عليها من الخوارزمية الثانية؛ ثم تقوم بتعديلها لجعلها تبدو أكثر واقعية. تتكرر العملية حتى لا تكتشف الخوارزمية الثانية أي صور زائفة. تُصوّر الوسائط المزيفة العميقة صورًا غير موجودة في الواقع أو أحداثًا لم تحدث أبدًا. ومن بين الصور المزيفة التي تم تداولها على نطاق واسع صورة للبابا فرانسيس في سترة منتفخة، وصورة للرئيس الأمريكي السابق دونالد ترامب في شجار مع ضباط الشرطة، وفيديو للرئيس التنفيذي لشركة فيسبوك مارك زوكربيرغ وهو يلقي خطابًا عن قوة شركته الشائنة. هذه الأحداث لم تحدث في الحياة الواقعية.
نماذج لغوية كبيرة ومعالجة اللغة الطبيعية
تتضمن معالجة اللغات الطبيعية (NLP) تحليل كيفية معالجة الحواسيب للغة وتحليلها بشكل مشابه للطريقة التي يقوم بها البشر. وللقيام بذلك، يجب أن تستخدم نماذج معالجة اللغات الطبيعية اللغوية العصبية اللغوية اللغويات الحاسوبية والإحصاءات والتعلم الآلي ونماذج التعلم العميق. كانت النماذج المبكرة في البرمجة اللغوية العصبية في وقت مبكر مشفرة يدوياً وقائمة على القواعد، ولكنها لم تأخذ في الحسبان الاستثناءات والفروق الدقيقة في اللغة. كانت البرمجة اللغوية العصبية الإحصائية اللغوية هي الخطوة التالية، باستخدام الاحتمالات لتعيين احتمالية معاني معينة لأجزاء مختلفة من النص. وتستخدم أنظمة البرمجة اللغوية العصبية الحديثة نماذج وتقنيات التعلم العميق التي تساعدها على ”التعلم“ أثناء معالجتها للمعلومات.
من الأمثلة البارزة في البرمجة اللغوية العصبية الحديثة نماذج اللغة التي تستخدم الذكاء الاصطناعي والإحصاءات للتنبؤ بالشكل النهائي للجملة على أساس الأجزاء الموجودة. في النموذج اللغوي الكبير (LLM)، تشير كلمة كبير إلى المعلمات أو المتغيرات والأوزان التي يستخدمها النموذج للتأثير على نتيجة التنبؤ. على الرغم من عدم وجود تعريف لعدد المعلمات المطلوبة، إلا أن مجموعات بيانات التدريب على نموذج اللغة الكبيرة (LLM) يتراوح حجمها بين 110 مليون معلمة (نموذج BERTbase من جوجل) إلى 340 مليار معلمة (نموذج PaLM 2 من جوجل). يشير الحجم الكبير أيضًا إلى الكمية الهائلة من البيانات تُستخدم لتدريب جهاز LLM، والذي يمكن أن يصل حجمه إلى عدة بيتابايتات ويحتوي على
وهي الوحدات الأساسية للنص أو الشيفرة، التي عادةً ما تكون مكونة من بضعة أحرف، والتي تتم معالجتها بواسطة النموذج.
كان أحد نماذج اللغات الشائعة هو GPT-3، الذي أصدرته OpenAI في يونيو 2020. كان GPT-3 من أوائل النماذج اللغوية القابلة للبرمجة (LLMs)، وكان بإمكانه حل مسائل الرياضيات على مستوى المدرسة الثانوية بالإضافة إلى إنشاء برامج حاسوبية. كان GPT-3 هو أساس برنامج ChatGPT، الذي صدر في نوفمبر 2022. أزعجت ChatGPT على الفور تقريبًا الأكاديميين والصحفيين وغيرهم بسبب القلق من استحالة التمييز بين الكتابة البشرية والكتابة التي تم إنشاؤها بواسطة ChatGPT.
وتبع ذلك موجة من روبوتات الدردشة الآلية وروبوتات الدردشة المبنية عليها في أعقاب ChatGPT. أضافت مايكروسوفت روبوت الدردشة الآلي كوبيلوت في عام 2023 إلى نظام التشغيل ويندوز 11، ومحرك البحث Bing، ومتصفح Edge. وفي العام نفسه، أصدرت جوجل في العام نفسه روبوت الدردشة الآلي ”بارد“ (الذي أصبح فيما بعد ”جيميني“)، وفي عام 2024، أعلنت الشركة أن ”لمحات عامة عن الذكاء الاصطناعي“ للموضوعات ستظهر في أعلى نتائج البحث.
تتمثل إحدى المشاكل التي تواجهها النماذج ذات المحركات ذات الفتحات المنخفضة جداً في ”الهلوسة“: فبدلاً من أن يقوم النموذج بإبلاغ المستخدم بأنه لا يعرف شيئاً ما، يستجيب النموذج بنص محتمل ولكنه غير دقيق بناءً على مطالبات المستخدم. قد تُعزى هذه المشكلة جزئيًا إلى استخدام النماذج ذاتية التعلم كمحركات بحث بدلاً من دورها المقصود كمولدات نصوص. وتُعرف إحدى طرق مكافحة الهلوسة باسم هندسة المطالبات، حيث يقوم المهندسون بتصميم مطالبات تهدف إلى استخراج المخرجات المثلى من النموذج. على سبيل المثال، أحد هذه الأساليب هو أسلوب سلسلة الأفكار، حيث تحتوي المطالبة الأولية على مثال لسؤال وإجابة مدروسة بعناية لتوضيح كيفية المضي قدمًا للنموذج.
ومن الأمثلة الأخرى على الآلات التي تستخدم البرمجة اللغوية العصبية أنظمة تحديد المواقع التي تعمل بالصوت، وروبوتات الدردشة لخدمة العملاء، وبرامج الترجمة اللغوية. بالإضافة إلى ذلك، تستخدم الشركات البرمجة اللغوية العصبية لتعزيز فهم المستهلكين وخدمتهم من خلال الإكمال التلقائي لاستعلامات البحث ومراقبة وسائل التواصل الاجتماعي.
وتستخدمالنصوص والصور، أي الصور ذات الأوصاف النصية.
برامج مثل OpenAI's DALL-E و Stable Diffusion و Midjourney برامج مثل OpenAI's DALL-E و Midjourney برامج معالجة اللغات الطبيعية لإنشاء صور بناءً على مطالبات نصية، والتي يمكن أن تكون بسيطة مثل ”كتلة حمراء فوق كتلة خضراء“ أو معقدة مثل ”مكعب بنسيج النيص“. يتم تدريب البرامج على مجموعات بيانات كبيرة تحتوي على ملايين أو مليارات من أزواج وتطرح البرمجة اللغوية العصبية بعض المشاكل، خاصة وأن خوارزميات التعلم الآلي وما شابهها غالبًا ما تعبر عن تحيزات ضمنية في المحتوى الذي يتم تدريبها عليه. على سبيل المثال، عندما يُطلب من النماذج اللغوية وصف طبيب، قد يكون من المرجح أن تستجيب النماذج اللغوية بعبارة ”هو طبيب“ أكثر من ”هي طبيبة“، مما يدل على التحيز المتأصل بين الجنسين. يمكن أن يكون للتحيز في البرمجة اللغوية العصبية عواقب في العالم الحقيقي. على سبيل المثال، في عام 2015 وُجد أن برنامج البرمجة اللغوية العصبية في أمازون لفحص السير الذاتية للمساعدة في اختيار المرشحين للوظائف، قد مارس التمييز against النساء،
حيث كان تمثيل النساء ناقصاً في مجموعة التدريب الأصلية التي تم جمعها من الموظفين
المركبات ذاتية القيادة
يُعد التعلم الآلي والذكاء الاصطناعي عنصرين أساسيين في أنظمة المركبات ذاتية القيادة. يتم تدريب المركبات على البيانات المعقدة (على سبيل المثال، حركة المركبات الأخرى وعلامات الطرق) باستخدام التعلم الآلي، مما يساعد على تحسين الخوارزميات التي تعمل بموجبها. يمكّن الذكاء الاصطناعي أنظمة المركبات من اتخاذ القرارات دون الحاجة إلى تعليمات محددة لكل موقف محتمل.
ومن أجل جعل المركبات ذاتية القيادة آمنة وفعالة، يتم إنشاء عمليات محاكاة اصطناعية لاختبار قدراتها. لإنشاء مثل هذه المحاكاة، يتم استخدام اختبار الصندوق الأسود، على عكس اختبار الصندوق الأبيض. يمكن أن يثبت اختبار الصندوق الأبيض، الذي يكون فيه الهيكل الداخلي للنظام الذي يتم اختباره معروفاً للمختبر، عدم وجود فشل. أما طرق الصندوق الأسود فهي أكثر تعقيداً وتتضمن اتباع نهج أكثر عدائية. في مثل هذه الأساليب، يكون التصميم الداخلي للنظام غير معروف للمختبر، الذي يستهدف بدلاً من ذلك التصميم والهيكل الخارجي. تحاول هذه الطرق إيجاد نقاط الضعف في النظام للتأكد من أنه يلبي معايير السلامة العالية.
اعتباراً من عام 2024، لم تكن السيارات ذاتية القيادة بالكامل متاحة للشراء من قبل المستهلكين. وقد ثبت أنه من الصعب التغلب على بعض العقبات. على سبيل المثال، ستكون هناك حاجة إلى خرائط لما يقرب من أربعة ملايين ميل من الطرق العامة في الولايات المتحدة لكي تعمل السيارة ذاتية القيادة بفعالية، وهو ما يمثل مهمة شاقة للمصنعين. بالإضافة إلى ذلك، أثارت أشهر السيارات ذاتية القيادة، وهي سيارات تسلا، مخاوف تتعلق بالسلامة، حيث توجهت هذه السيارات حتى نحو حركة المرور القادمة والأعمدة المعدنية. لم يتطور الذكاء الاصطناعي إلى الحد الذي يجعل السيارات قادرة على الانخراط في تفاعلات معقدة مع السائقين الآخرين أو مع راكبي الدراجات أو المشاة. هذا ”الحس السليم“ ضروري لمنع الحوادث وخلق بيئة آمنة.
في أكتوبر 2015، أكملت سيارة Waymo ذاتية القيادة من Google (التي تعمل الشركة على تطويرها منذ عام 2009) أول رحلة لها بدون سائق بالكامل مع راكب واحد. وقد تم اختبار هذه التقنية على مسافة مليار ميل ضمن عمليات المحاكاة، ومليوني ميل على الطرق الحقيقية. تعمل شركة Waymo، التي تضم أسطولاً من السيارات التي تعمل بالطاقة الكهربائية بالكامل، في سان فرانسيسكو وفينيكسو، حيث يمكن للمستخدمين طلب توصيلة، كما هو الحال مع أوبر أو ليفت. تعمل عجلة القيادة ودواسة الوقود ودواسة الفرامل دون توجيه بشري، مما يميز هذه التقنية عن ميزة القيادة الذاتية في تسلا. على الرغم من أن تقييم التكنولوجيا بلغ ذروته عند 175 مليار دولار في نوفمبر 2019، إلا أنه انخفض إلى 30 مليار دولار فقط بحلول عام 2020. يتم التحقيق مع شركة Waymo من قبل الإدارة الوطنية الأمريكية لسلامة المرور على الطرق السريعة (NHTSA) بعد أكثر من 20 تقريرًا مختلفًا عن مخالفات مرورية. وفي بعض الحالات، سارت المركبات على الجانب الخطأ من الطريق وفي إحدى الحالات صدمت راكب دراجة.
glمساعد و سيري من Apple. يختلف المساعدون الافتراضيون عن روبوتات الدردشة الآلية ووكلاء المحادثة في أنهم أكثر تخصيصًا، حيث يتكيفون مع سلوك المستخدم الفردي ويتعلمون منه لتحسينه بمرور الوقت.
بدأ التواصل بين الإنسان والآلة في الستينيات مع إليزا. وتبعها في أوائل السبعينيات برنامج PARRY، الذي صممه الطبيب النفسي كينيث كولبي، وصُمم لمحاكاة محادثة مع شخص مصاب بالفصام. أما جهاز Simon، الذي صممته شركة IBM في عام 1994، فكان من أوائل الأجهزة التي يمكن تسميتها تقنيًا ”هاتفًا ذكيًا“، وتم تسويقه كمساعد رقمي شخصي (PDA). كان Simon أول جهاز يتميز بشاشة تعمل باللمس، وكان لديه إمكانية إرسال البريد الإلكتروني والفاكس أيضًا. وعلى الرغم من أن سايمون لم يكن مساعدًا رقميًا شخصيًا من الناحية الفنية، إلا أن تطويره كان أساسيًا في إنشاء المساعدين المستقبليين. في فبراير 2010، تم تقديم Siri، وهو أول مساعد مساعد مساعد حديث، لنظام التشغيل iOS، وهو نظام تشغيل أبل للهواتف المحمولة، مع iPhone 4S. وكان سيري أول مساعد صوتي مساعد يمكن تحميله على الهاتف الذكي.
يقوم المساعد الصوتي بتحليل الكلام البشري عن طريق تقسيمه إلى أصوات متميزة تُعرف باسم الفونيمات، باستخدام نظام التعرف التلقائي على الكلام (ASR). بعد تحليل الكلام، يقوم المساعد الصوتي المساعد بتحليل و”تذكّر“ نبرة الصوت والجوانب الأخرى من الصوت للتعرف على المستخدم. وبمرور الوقت، أصبح المساعدون أكثر تطوراً من خلال التعلم الآلي، حيث يمكنهم الوصول إلى ملايين الكلمات والعبارات. بالإضافة إلى ذلك، غالبًا ما يستخدمون الإنترنت للعثور على إجابات لأسئلة المستخدم
المخاطر
يشكل الذكاء الاصطناعي مخاطر معينة من حيث العواقب الأخلاقية والاجتماعية والاقتصادية. فمع أتمتة المزيد من المهام، لا سيما في صناعات مثل التسويق والرعاية الصحية، فإن العديد من العمال معرضون لفقدان وظائفهم. وعلى الرغم من أن الذكاء الاصطناعي قد يخلق بعض الوظائف الجديدة، إلا أن هذه الوظائف قد تتطلب مهارات تقنية أكثر من الوظائف التي حل الذكاء الاصطناعي محلها.
علاوة على ذلك، للذكاء الاصطناعي بعض التحيزات التي يصعب التغلب عليها دون تدريب مناسب. على سبيل المثال، بدأت إدارات الشرطة الأمريكية في استخدام خوارزميات الشرطة التنبؤية للإشارة إلى الأماكن التي من المرجح أن تحدث فيها الجرائم. ومع ذلك، تعتمد هذه الأنظمة جزئياً على معدلات الاعتقال، والتي هي بالفعل مرتفعة بشكل غير متناسب في مجتمعات السود. وقد يؤدي ذلك إلى الإفراط في ضبط الأمن في مثل هذه المناطق، مما يؤثر بشكل أكبر على هذه الخوارزميات. وبما أن البشر متحيزون بطبيعتهم، فلا بد للخوارزميات أن تعكس التحيزات البشرية.
الخصوصية هي جانب آخر من جوانب الذكاء الاصطناعي التي تثير قلق الخبراء. نظرًا لأن الذكاء الاصطناعي غالبًا ما ينطوي على جمع كميات كبيرة من البيانات ومعالجتها، فهناك خطر أن يتم الوصول إلى هذه البيانات من قبل الأشخاص أو المنظمات الخطأ. مع الذكاء الاصطناعي التوليدي، من الممكن حتى التلاعب بالصور وإنشاء ملفات تعريف مزيفة. كما يمكن استخدام الذكاء الاصطناعي في مسح السكان وتتبع الأفراد في الأماكن العامة. وقد ناشد الخبراء صانعي السياسات تطوير ممارسات وسياسات تزيد من فوائد الذكاء الاصطناعي مع تقليل المخاطر المحتملة. في يناير 2024، كانت المغنية تايلور سويفت هدفًا لصور جنسية صريحة
التزييف العميق غير التوافقي الذي تم تداوله على نطاق واسع على وسائل التواصل الاجتماعي. كان العديد من الأفراد قد واجهوا بالفعل هذا النوع من الإساءات عبر الإنترنت (التي أصبحت ممكنة بفضل الذكاء الاصطناعي)، لكن حالة سويفت دفعت بالقضية إلى صدارة السياسة العامة.
تقع مراكز البيانات في مراكز البيانات التي تتطلب كميات كبيرة من الكهرباء. في عام 2020، تعهدت مايكروسوفت بأن تكون محايدة كربونياً بحلول عام 2030. وفي عام 2024، أعلنت الشركة أن انبعاثات الكربون في السنة المالية السابقة زادت بنسبة 30% تقريباً، ومعظمها من مواد البناء والأجهزة المطلوبة في بناء المزيد من مراكز البيانات. يتطلب استعلام ChatGPT حوالي 10 أضعاف ما يتطلبه بحث جوجل من الكهرباء. وقد قدر بنك جولدمان ساكس أن مراكز البيانات ستستخدم حوالي 8 في المئة من الكهرباء في الولايات المتحدة في عام 2030.
اعتبارًا من عام 2024 هناك عدد قليل من القوانين التي تنظم الذكاء الاصطناعي. تحكم القوانين الحالية مثل اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي (GDPR) وقانون خصوصية المستهلك في كاليفورنيا (CCPA) نماذج الذكاء الاصطناعي ولكن فقط بقدر ما تستخدم المعلومات الشخصية. اللائحة الأكثر شمولاً هي قانون الاتحاد الأوروبي للذكاء الاصطناعي الذي صدر في مارس 2024. بموجب قانون الذكاء الاصطناعي، يتم حظر النماذج التي تقوم بالتسجيل الاجتماعي لسلوك المواطنين وخصائصهم والتي تحاول التلاعب بسلوك المستخدمين. يجب تسجيل نماذج الذكاء الاصطناعي التي تتعامل مع مواضيع ”عالية الخطورة“، مثل إنفاذ القانون والبنية التحتية، في قاعدة بيانات الاتحاد الأوروبي.
أدى الذكاء الاصطناعي أيضًا إلى قضايا تتعلق بقانون وسياسة حقوق النشر. في عام 2023، بدأ مكتب حقوق الطبع والنشر التابع للحكومة الأمريكية مبادرة للتحقيق في مسألة استخدام الذكاء الاصطناعي للأعمال المحمية بحقوق الطبع والنشر لتوليد المحتوى. في ذلك العام تم رفع ما يقرب من 15 قضية جديدة من الدعاوى المتعلقة بحقوق النشر ضد الشركات المشاركة في إنشاء برامج الذكاء الاصطناعي التوليدية. وتعرضت إحدى الشركات البارزة، وهي شركة Stability AI، لانتقادات بسبب استخدام صور غير مرخصة لتوليد محتوى جديد. وقد أضافت شركة Getty Images، التي رفعت الدعوى، ميزة الذكاء الاصطناعي الخاصة بها إلى منصتها، وذلك جزئيًا ردًا على مجموعة الخدمات التي تقدم ”صورًا مسروقة“. هناك أيضًا تساؤلات حول ما إذا كان العمل الذي تم إنشاؤه بواسطة الذكاء الاصطناعي يستحق علامة حقوق الطبع والنشر. في الوقت الحالي، لا يمكن أن يكون المحتوى المصنوع بالذكاء الاصطناعي محميًا بحقوق الطبع والنشر، ولكن هناك حجج مؤيدة ومعارضة لحق النشر.
على الرغم من أن العديد من شركات الذكاء الاصطناعي تدعي أن محتواها لا يتطلب عمالة بشرية، إلا أنه في كثير من الحالات، تعتمد هذه التكنولوجيا ”الرائدة“ على عمال مستغلين من البلدان النامية. على سبيل المثال، وجد تحقيق أجرته مجلة Time أن شركة OpenAI استخدمت عمالاً كينيّين (يتقاضون أقل من دولارين في الساعة) لفرز مقتطفات نصية من أجل المساعدة في إزالة اللغة السامة والجنسية الصريحة من ChatGPT. وقد أُلغي المشروع في فبراير 2022 بسبب الصدمة التي تعرض لها العمال. على الرغم من أن أمازون كانت قد سوّقت متاجر Amazon Go التي لا يوجد بها أمين صندوق على أنها مؤتمتة بالكامل (على سبيل المثال، يمكن للذكاء الاصطناعي الخاص بها اكتشاف العناصر الموجودة في سلة العميل)، فقد تم الكشف عن أن ”فقط اخرج من المتجر“ كانت التكنولوجيا في الواقع مدعومة بعمالة خارجية من الهند، حيث يعمل أكثر من ألف عامل من الهند ”عن بُعد الصرافين"، مما أدى إلى نكتة مفادها أن الذكاء الاصطناعي في هذه الحالة يرمز إلى الهنود الحمر في الواقع
هل الذكاء الاصطناعي العام ممكن؟
لا يزال الذكاء الاصطناعي العام الاصطناعي أو الذكاء الاصطناعي القوي - أي الذكاء الاصطناعي الذي يهدف إلى محاكاة القدرات الفكرية البشرية - مثيرًا للجدل وبعيدًا عن متناول اليد. لا يمكن المبالغة في صعوبة توسيع نطاق الإنجازات المتواضعة للذكاء الاصطناعي.
ومع ذلك، قد يكون هذا النقص في التقدم دليلاً على صعوبة الذكاء الاصطناعي المُعزز وليس على استحالته. دعونا ننتقل إلى فكرة الذكاء الاصطناعي للذكاء الاصطناعي المُطوَّر. هل يمكن للحاسوب أن يفكر؟ يشير عالم اللغويات النظري نعوم تشومسكي إلى أن مناقشة هذا السؤال لا طائل من ورائه، لأنه قرار اعتباطي في الأساس فيما إذا كان يجب توسيع نطاق الاستخدام الشائع لكلمة ”التفكير“ ليشمل الآلات. ويزعم تشومسكي أنه لا يوجد أي سؤال واقعي حول ما إذا كان أي قرار من هذا القبيل صحيحًا أو خاطئًا - تمامًا كما لا يوجد سؤال حول ما إذا كان قرارنا بالقول إن الطائرات تطير هو قرار صحيح، أو قرارنا بعدم القول بأن السفن تسبح هو قرار خاطئ. jو مع ذلك من الواضح ان هدا يبالغ في تبسيط الامر. والسؤال المهم هو: هل يمكن أن يكون من المناسب القول بأن الحواسيب تفكر، وإذا كان الأمر كذلك، فما هي الشروط التي يجب أن يستوفيها الحاسوب حتى يوصف بذلك؟
يقدم بعض المؤلفين اختبار تورينج كتعريف للذكاء. ومع ذلك، أشار عالم الرياضيات والمنطق آلان تورينغ نفسه إلى أن الحاسوب الذي يجب أن يوصف بالذكاء قد يفشل في اختباره إذا كان غير قادر على تقليد الإنسان بنجاح. على سبيل المثال، غالبًا ما يتذرع ChatGPT غالبًا بوضعه كنموذج لغوي كبير وبالتالي من غير المرجح أن يجتاز اختبار تورينج. إذا كان بإمكان كيان ذكي أن يفشل في الاختبار، فلا يمكن للاختبار أن يعمل كتعريف للذكاء. حتى أنه من المشكوك فيه ما إذا كان اجتياز الاختبار سيُظهر بالفعل أن الحاسوب ذكي، كما أشار كلود شانون المنظر المعلوماتي وجون مكارثي رائد الذكاء الاصطناعي في عام 1956. جادل شانون ومكارثي أنه من الممكن، من حيث المبدأ، تصميم آلة تحتوي على مجموعة كاملة من الإجابات المعلبة على جميع الأسئلة التي يمكن أن يطرحها المستجوب خلال الفترة الزمنية المحددة للاختبار. وعلى غرار ”باري“، ستنتج هذه الآلة إجابات على أسئلة المستجوب من خلال البحث عن الإجابات المناسبة في جدول عملاق. يبدو أن هذا الاعتراض يُظهر، من حيث المبدأ، أن النظام الذي لا يتمتع بأي ذكاء على الإطلاق يمكن أن يجتاز اختبار تورينج.
في الواقع، ليس للذكاء الاصطناعي تعريف حقيقي للذكاء، ولا حتى في حالة ما دون البشر. فالفئران ذكية، ولكن ما الذي يجب أن يحققه الذكاء الاصطناعي بالضبط قبل أن يتمكن الباحثون من الادعاء بأنه وصل إلى مستوى ذكاء الفئران؟ في غياب معيار دقيق بشكل معقول للوقت الذي يعتبر فيه النظام الاصطناعي ذكيًا، لا توجد طريقة موضوعية لمعرفة ما إذا كان برنامج أبحاث الذكاء الاصطناعي قد نجح أو فشل. تتمثل إحدى نتائج فشل الذكاء الاصطناعي في وضع معيار مرضٍ للذكاء الاصطناعي - على سبيل المثال، برنامج يمكنه إجراء محادثة مثل GPT أو التغلب على بطل العالم في الشطرنج مثل Deep Blue - يمكن للنقاد أن يقولوا ”هذا ليس ذكاء!“ مارفن رد مينسكي إلى مشكلة تعريف الذكاء هي أن نؤكد -مثل تورينج من قبله- أن الذكاء هو ببساطة اسمنا لأي عملية عقلية لحل المشكلات التي لم نفهمها بعد. ويشبّه مينسكي الذكاء بمفهوم ”المناطق غير المستكشفة في أفريقيا“: فهو يختفي بمجرد أن نكتشفه
was good
ردحذف