برز مجال الذكاء الاصطناعي مجددًا في السنوات الأخيرة مع كل ما فيه من إيجابيات وسلبيات. فمثلًا، إذا تعلم الجهاز "التفكير" كالبشر، فإنه قد، في المستقبل القريب، يأخذ ملايين من وظائف الناس في جميع أنحاء العالم. ولكن، هل الذكاء الاصطناعي حقا مذنب؟
مفهوم وتقنيات الذكاء الاصطناعى ليست جديدة، خاصة بالنسبة لعمر الكمبيوتر الحديث. كان هناك حماسة كبيرة في البحث العلمي بالخمسينات للجمع بين الرياضيات والتقنيات الحسابيّة بهدف تعليم الآلات اتخاذ القرارات واستنتاج الأشياء من ما تعلمته. إلا أنه لم يكن هناك في ذلك الوقت أي قوة معالجة حاسوبية للقيام بعمليات حسابية ثقيلة، أو كمية كبيرة من البيانات المتاحة التي يمكنها أن تبرّر اعتماد هذه التقنيات من الصناعات والشركات.
تغير هذا السيناريو تماما في غضون السنوات الخمس الماضية مع تمكّننا من تحقيق قوة حاسوبيّة هائلة لتمكين هذه الحسابات الثقيلة، الأمر الذي تطلّب من الآلات "تعلّم" أنماط جديدة. كما لدينا الآن كمية هائلة من البيانات المتاحة والتي تعدّ فرص سانحة لتعلّم الآلات. وشكّلت هذه الوقائع شرارة لشركات التكنولوجيا مثل غوغل وفيسبوك، لإيلاء الاهتمام لهذا الموضوع وتطوير التقنيات والمنتجات التي أتاحت إمكانية تحقيق الذكاء الاصطناعي. لهذا السبب نتحدث كثيرا عن هذا الموضوع في الوقت الحاضر.
في الواقع، يمكن الاستفادة من أجهزة الكمبيوتر كحلفاء لنا في التحليل وتوقّع المشاكل والحلول، البسيطة منها حتى أكثرها تعقيدًا. مع هذه التقنيات، فمن الممكن للكمبيوتر، على سبيل المثال، تحديد الخلايا السرطانية من خلال تحليل الصور. للقيام بهذا الأمر، يقوم مجموعة من الأطباء بتصنيف آلاف الصور، محدّدين ما هو سرطاني وما هو غير سرطاني من الأورام، مما يمكّن أجهزة الكمبيوتر من تطوير نموذج رياضي للتوقع ما هو محتمل أن يكون سرطاني أو لا في الصور الجديدة.
ثمة أمثلة أخرى في قطاعات مختلفة، مثل إدارة الخدمات الحضرية ومرشحات الرسائل الاقتحامية وبرامج الدردشة. التطبيقات المحتملة للذكاء الاصطناعي لا حصر لها ويمكن أن تحسن كثيرا من إنتاجية وفعالية العمليات والمنتجات والخدمات. المسألة هي الحدود الأخلاقية لعلاقتنا مع الآلات.
التطور الكيميائي هو مثال عن هذا الأمر. فمع نفس المعرفة الأساسية، بإمكاننا أن ننتج الأدوية التي تنقذ الأرواح، ويمكننا أيضا إنتاج الأسلحة الكيميائية التي تدمر الأرواح. أو مع الكمبيوتر نفسه، الذي يجلب لنا كل ما في العالم الرقمي من أمور رائعة، لكن أيضا التهديدات السيبرانية وفقدان الخصوصية. يكمن القلق الرئيسي حول الذكاء الاصطناعي في طرق وأساليب التطبيق وليس في تطوير التقنيات بحد ذاتها.
ولذلك، تشكّل الأخلاق الحسابية هنا عامل أساسي. يجب علينا أن نستثمر في تطوير صناعة الكمبيوتر، والتي يمكنها أن تجلب لنا العديد من التقدم من حيث الإنتاج ونوعية الحياة، ولكن يجب علينا أن نحدد كيف يتم التصرّف بهذه المعرفة. نحن نريد آلات تساعدنا على اكتشاف المشاكل الحضرية بسرعة واستباقية، ولكننا لا نريد آلات تحدد التوجه الجنسي للأشخاص، استنادا إلى الصور الشخصية مما يمكن أن يساعد الناس الخبثاء على التصرف بشكل مدمر وضد حقوق الإنسان. نحن لسنا في حاجة إلى هذا.
كمجتمع، نحن بحاجة إلى تعريف القيم التي نريد استخراجها من كل هذه التقنيات. ومن المهم جدا وضع تشريع عالمي لتحديد القواعد الأخلاقية لتطبيقات الذكاء الاصطناعى، وهذا ما نراه في الممارسات الطبية، على سبيل المثال.
بغض النظر عن مسار الذكاء الاصطناعى ولا يمكننا إلقاء اللوم عليه. بالنهاية، القرارات هي دائما للإنسان، حيث علينا أن نشعر بالقلق. وحتى لو أدى تطبيق ما إلى خسائر في الوظائف البشرية، على سبيل المثال، ينبغي أن ننظر إلى الإجراءات التي يمكن اتخاذها الآن لإعداد العمال المتضررين للحصول على وظائف جديدة من قطاعات جديدة.
كل شيء معرّض للتطور والتحسين، ويمكننا بالتأكيد أن نعيش في العالم حيث يجلب لنا الذكاء الاصطناعي الراحة والرفاهية ونوعية الحياة الرغيدة وينبغي ألا نلومه على القرارات السيئة التي سيتسبب بها الأفراد. هذه القرارات الخاطئة هي بنهاية المطاف بشريّة.