علوم وتكنولوجيا

غيتس يدعو لمتابعة تطوير الذكاء الاصطناعي ويرد على التخوفات.. ماذا قال؟

غيتس: أفضل سبب للاعتقاد بأننا نستطيع إدارة المخاطر هو أننا فعلنا ذلك من قبل
غيتس: أفضل سبب للاعتقاد بأننا نستطيع إدارة المخاطر هو أننا فعلنا ذلك من قبل
دعا الملياردير والمؤسس المشارك لشركة "مايكروسوفت"، بيل غيتس إلى ضرورة متابعة التطورات في الذكاء الاصطناعي قدر الإمكان. مشيرا إلى أنه أكثر الابتكارات التحويلية التي سيشهدها أي منا في حياتنا.

وأكد غيتس في مدونته أن الذكاء الاصطناعي ستكون له فوائد هائلة، "وأفضل سبب للاعتقاد بأننا نستطيع إدارة المخاطر هو أننا فعلنا ذلك من قبل".

يقول غيتس إن المخاطر الناتجة عن الذكاء الاصطناعي قد تكون هائلة. وطرح عددا منها من مثل: ماذا يحدث للأشخاص الذين فقدوا وظائفهم بسبب آلة ذكية؟ هل يمكن أن يؤثر الذكاء الاصطناعي على نتائج الانتخابات؟ ماذا لو قرر الذكاء الاصطناعي في المستقبل أنه لا يحتاج إلى البشر بعد الآن ويريد التخلص منا؟

وبرغم اعترافه بأنها أسئلة عادلة، وأن المخاوف التي يثيرها الذكاء الاصطناعي يجب أن تؤخذ على محمل الجد. إلا أنه يؤكد أن هناك سببا وجيها للاعتقاد بأنه يمكننا التعامل معها؛ فهذه ليست المرة الأولى التي يقدم فيها ابتكار رئيسي تهديدات جديدة يجب السيطرة عليها. لقد فعلناها من قبل، على حد قوله.

ويضيف: "سواء كان الأمر يتعلق بإدخال السيارات أو ظهور أجهزة الكمبيوتر الشخصية والإنترنت، فقد نجح الناس في المرور عبر لحظات تحويلية أخرى، وعلى الرغم من الكثير من الاضطرابات، فقد أصبحوا أفضل حالًا في النهاية".

ويدلل على ذلك بقوله إنه بعد فترة وجيزة من ظهور السيارات الأولى على الطريق، كان هناك أول حادث سيارة. لكننا لم نحظر السيارات فقد اعتمدنا حدود السرعة، ومعايير السلامة، ومتطلبات الترخيص، وقوانين القيادة تحت تأثير الكحول، وقواعد الطريق الأخرى.

ومع ذلك فغيتس يقر أننا "نواجه أسئلة كبيرة تثيرها الطريقة التي تعمل بها التكنولوجيا الحالية، والطرق التي يستخدمها الناس بسوء نية، والطرق التي سيغيرنا بها الذكاء الاصطناعي كمجتمع وكأفراد".

ويضيف: "في لحظة كهذه، من الطبيعي أن تشعر بعدم الاستقرار. لكن التاريخ يُظهر أنه من الممكن حل التحديات التي أحدثتها التقنيات الجديدة".

سوف يساعد في حل المشكلات - في الصحة والتعليم وتغير المناخ وغير ذلك - التي كانت تبدو مستعصية على الحل.

اظهار أخبار متعلقة


بالنسبة لغيتس فـ"مستقبل الذكاء الاصطناعي ليس قاتمًا كما يعتقد البعض أو ورديًا كما يعتقد الآخرون. المخاطر حقيقية، لكني متفائل بإمكانية إدارتها".

العديد من المشاكل التي يسببها الذكاء الاصطناعي لها سابقة تاريخية. على سبيل المثال، سيكون لها تأثير كبير على التعليم، وكذلك فعلت الآلات الحاسبة المحمولة قبل بضعة عقود، ومؤخراً، سمحت لأجهزة الكمبيوتر في الفصل الدراسي. يمكننا التعلم مما نجح في الماضي.

يمكن أيضًا إدارة العديد من المشكلات التي يسببها الذكاء الاصطناعي بمساعدة الذكاء الاصطناعي.

لكن ماذا لو حدد الذكاء الاصطناعي الخارق أهدافه الخاصة؟ ماذا لو تعارضوا مع الإنسانية؟ هل يجب أن نصنع ذكاءً اصطناعيًا فائقًا على الإطلاق؟ يتساءل غيتس.

يرى غيتس أن هذه المخاطر طويلة المدى، ولا ينبغي أن تأتي على حساب المخاطر الأكثر إلحاحًا؛ وهي:

التزييف العميق والديمقراطية:
يمكن أن يؤدي التزييف العميق والمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي إلى تقويض الانتخابات والديمقراطية.

إن فكرة إمكانية استخدام التكنولوجيا لنشر الأكاذيب والأكاذيب ليست جديدة. كان الناس يفعلون ذلك بالكتب والمنشورات لعدة قرون. أصبح الأمر أسهل بكثير مع ظهور معالجات الكلمات وطابعات الليزر والبريد الإلكتروني والشبكات الاجتماعية.

يمكن استخدام تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي لمحاولة ترجيح الانتخابات. بالطبع، لا يتطلب الأمر تقنية متطورة لبث الشكوك حول الفائز الشرعي في الانتخابات، ولكن الذكاء الاصطناعي سيجعل الأمر أسهل.

هناك بالفعل مقاطع فيديو مزيفة تعرض لقطات ملفقة لسياسيين معروفين. تخيل أنه في صباح يوم الانتخابات الكبرى، انتشر مقطع فيديو يظهر أحد المرشحين يسرق أحد البنوك. إنه مزيف، لكن الأمر يستغرق عدة ساعات من منافذ الأخبار والحملة لإثبات ذلك. كم عدد الأشخاص الذين سيشاهدونه ويغيرون أصواتهم في اللحظة الأخيرة؟ يمكن أن تقلب الموازين، خاصة في انتخابات متقاربة.

يقر غيتس بأننا "لم نحل مشكلة المعلومات المضللة والتزييف العميق". لكن شيئين يجعلانه متفائلاً بحذر: أحدها أن الناس قادرون على تعلم ألا يأخذوا كل شيء في ظاهره. لسنوات، وقع مستخدمو البريد الإلكتروني في عمليات الاحتيال حيث وعد شخص يتظاهر بأنه أمير نيجيري بمكافأة كبيرة مقابل مشاركة رقم بطاقتك الائتمانية. لكن في النهاية، تعلم معظم الناس أن ينظروا مرتين إلى تلك الرسائل الإلكترونية. نظرًا لأن عمليات الاحتيال أصبحت أكثر تعقيدًا، فإن العديد من أهدافها أصبحت كذلك. سنحتاج إلى بناء نفس العضلات للتزييف العميق.

الشيء الآخر الذي يجعله متفائلًا هو أن الذكاء الاصطناعي يمكن أن يساعد في تحديد التزييف العميق وكذلك في إنشائها. على سبيل المثال، طورت إنتل كاشفًا للتزييف العميق، وتعمل الوكالة الحكومية "DARPA" على التكنولوجيا لتحديد ما إذا كان قد تم التلاعب بالفيديو أو الصوت.

ستكون هذه عملية دورية: يجد شخص ما طريقة لاكتشاف التزييف، ويكتشف شخص آخر كيفية مواجهتها، ويطور شخص آخر إجراءات مضادة، وما إلى ذلك. لن يكون نجاحًا مثاليًا، لكننا لن نكون عاجزين أيضًا.

الهجمات على الأشخاص والحكومات

اليوم، عندما يرغب المتسللون في العثور على عيوب يمكن استغلالها في البرامج، فإنهم يفعلون ذلك بالقوة الغاشمة - كتابة التعليمات البرمجية التي تقضي على نقاط الضعف المحتملة حتى يكتشفوا طريقة للدخول. ويتضمن ذلك السير في الكثير من الأزقة العمياء، مما يعني أن الأمر يستغرق وقتًا وصبرا.

يجب على خبراء الأمن الذين يريدون مواجهة المتسللين أن يفعلوا الشيء نفسه. يمثل كل برنامج تصحيح تقوم بتثبيته على هاتفك أو جهاز الكمبيوتر المحمول الخاص بك عدة ساعات من البحث، من قبل الأشخاص ذوي النوايا الحسنة والسيئة على حد سواء.

ستعمل نماذج الذكاء الاصطناعي على تسريع هذه العملية من خلال مساعدة المتسللين على كتابة تعليمات برمجية أكثر فعالية. سيتمكنون أيضًا من استخدام المعلومات العامة حول الأفراد، مثل مكان عملهم ومن هم أصدقاؤهم، لتطوير هجمات تصيد أكثر تقدمًا من تلك التي نراها اليوم.

الخبر السار، كما يرى غيتس، هو أنه يمكن استخدام الذكاء الاصطناعي للأغراض الجيدة وكذلك للأغراض السيئة. تحتاج فرق الأمن الحكومية والقطاع الخاص إلى امتلاك أحدث الأدوات للعثور على الثغرات الأمنية وإصلاحها قبل أن يتمكن المجرمون من الاستفادة منها.

ولهذا السبب أيضًا لا يجب أن نحاول منع الناس مؤقتًا من تنفيذ التطويرات الجديدة في الذكاء الاصطناعي، كما اقترح البعض. لن يتوقف مجرمو الإنترنت عن ابتكار أدوات جديدة. ولن يرغب الأشخاص الذين يرغبون في استخدام الذكاء الاصطناعي في تصميم أسلحة نووية وهجمات إرهابية بيولوجية. يجب أن تستمر الجهود المبذولة لوقفها بنفس الوتيرة.

اظهار أخبار متعلقة


سلب الوظائف

في السنوات القليلة المقبلة، سيكون التأثير الرئيسي للذكاء الاصطناعي على العمل هو مساعدة الأشخاص على أداء وظائفهم بشكل أكثر كفاءة. سيكون هذا صحيحًا سواء كانوا يعملون في مصنع أو في مكتب يتعاملون مع مكالمات المبيعات والحسابات المستحقة الدفع. في النهاية، سيكون الذكاء الاصطناعي جيدًا بما يكفي في التعبير عن الأفكار بحيث يمكنه كتابة رسائل البريد الإلكتروني وإدارة صندوق الوارد الخاص بك نيابة عنك. ستكون قادرًا على كتابة طلب بلغة إنجليزية بسيطة، أو أي لغة أخرى، وإنشاء عرض تقديمي غني عن عملك.

يعتقد غيتس أن هذا أمر جيد للمجتمع عندما ترتفع الإنتاجية. يمنح الناس مزيدًا من الوقت للقيام بأشياء أخرى، في العمل والمنزل. والطلب على الأشخاص الذين يساعدون الآخرين في التدريس، ورعاية المرضى، ودعم كبار السن، على سبيل المثال لن يختفي أبدًا. لكن من الصحيح أن بعض العمال سيحتاجون إلى الدعم وإعادة التدريب لأننا نجعل هذا الانتقال إلى مكان العمل مدعوما بالذكاء الاصطناعي. هذا دور الحكومات والشركات، وسيحتاجون إلى إدارته جيدًا حتى لا يتخلف العمال عن الركب، لتجنب هذا النوع من الاضطراب في حياة الناس الذي حدث أثناء تراجع وظائف التصنيع في الولايات المتحدة.

يرى غيتس أن هذه ليست المرة الأولى التي تتسبب فيها تقنية جديدة في حدوث تحول كبير في سوق العمل. لا أعتقد أن تأثير الذكاء الاصطناعي سيكون دراماتيكيًا مثل الثورة الصناعية، لكنه بالتأكيد سيكون بحجم إدخال الكمبيوتر الشخصي. تطبيقات معالجة الكلمات لا تلغي العمل المكتبي، لكنها غيرته إلى الأبد. كان على أرباب العمل والموظفين التكيف، وقد فعلوا ذلك. سيكون التحول الناجم عن الذكاء الاصطناعي بمثابة تحول صعب، ولكن هناك كل الأسباب للاعتقاد بأنه يمكننا تقليل الاضطراب الذي يصيب حياة الناس وسبل عيشهم.

الطلاب والكتابة

يشعر العديد من المعلمين بالقلق بشأن الطرق التي سيقوض بها الذكاء الاصطناعي عملهم مع الطلاب. في الوقت الذي يمكن فيه لأي شخص لديه إمكانية الوصول إلى الإنترنت استخدام الذكاء الاصطناعي لكتابة مسودة أولى محترمة لمقال ما، ما الذي يمنع الطلاب من تحويلها إلى عمل خاص بهم؟

يرد غيتس أنه توجد بالفعل أدوات للذكاء الاصطناعي تتعلم معرفة ما إذا كان هناك شيء ما قد كتبه شخص أم عن طريق الكمبيوتر، بحيث يمكن للمدرسين معرفة متى لا يقوم طلابهم بعملهم الخاص. لكن بعض المعلمين لا يحاولون منع طلابهم من استخدام الذكاء الاصطناعي في كتاباتهم، فهم في الواقع يشجعونه.

في كانون الثاني (يناير)، كتبت مدرّسة لغة إنجليزية مخضرمة تدعى شيري شيلدز مقالة في "Education Week" حول كيفية استخدامها "ChatGPT" في فصلها الدراسي. لقد ساعدت طلابها في كل شيء انطلاقا من البدء في كتابة مقال وحتى كتابة الخطوط العريضة وحتى إعطائهم ملاحظات حول عملهم.

وكتبت: "سيتعين على المعلمين تبني تقنية الذكاء الاصطناعي كأداة أخرى يمكن للطلاب الوصول إليها". "تمامًا مثلما علمنا الطلاب في السابق كيفية إجراء بحث مناسب في غوغل، يجب على المعلمين تصميم دروس واضحة حول كيفية مساعدة برنامج "ChatGPT bot" في كتابة المقالات. إن الاعتراف بوجود الذكاء الاصطناعي ومساعدة الطلاب على العمل معه يمكن أن يحدث ثورة في طريقة التدريس". ليس كل معلم لديه الوقت لتعلم واستخدام أداة جديدة، ولكن المعلمين مثل شيلدز يقدمون حجة جيدة بأن أولئك الذين يفعلون ذلك سوف يستفيدون كثيرًا.

يقول غيتس إن تلك المخاوف تذكره بالوقت الذي انتشرت فيه الآلات الحاسبة الإلكترونية في السبعينيات والثمانينيات. قلق بعض معلمي الرياضيات من أن الطلاب سيتوقفون عن تعلم كيفية إجراء العمليات الحسابية الأساسية، لكن آخرين اعتنقوا التكنولوجيا الجديدة وركزوا على مهارات التفكير وراء الحساب.

يعتقد غيتس أن هناك أسبابًا أكثر للتفاؤل بأننا نستطيع إدارة مخاطر الذكاء الاصطناعي مع تعظيم فوائدها. لكننا بحاجة إلى التحرك بسرعة.

ويوصي غيتس الحكومات ببناء الخبرة في مجال الذكاء الاصطناعي حتى تتمكن من وضع قوانين ولوائح مستنيرة تستجيب لهذه التكنولوجيا الجديدة.

التعليقات (0)
الأكثر قراءة اليوم