أبحاثإصداراتالولايات المتحدة إلى أينملفات

هل تحكم الشركات أمريكا؟

قراءة في تحوّل بنية السلطة ودخول وادي السيليكون إلى قلب القرار السياسي

هذا البحث يحاول فهم حقيقة العلاقة الآخذة في التشكل الآن في واشنطن بين الدولة الأمريكية وشركات التكنولوجيا، من خلال الاقتراب من شخصية مبرزة في قمة هذه العلاقة.

ليس صحيحًا ما يصرخ به البعض بأن أمريكا انتقلت بالكامل إلى حقبة “حكم الشركات”، لكننا نعيش تحولًا عميقًا في ميزان القوة بين الدولة الأمريكية وشركات التكنولوجيا.

حتى مطلع الألفية تقريبًا، كان النموذج الأمريكي القديم كالتالي:

الدولة (الكونجرس + الوكالات): تضع القواعد.

الشركات: تعمل داخل الإطار القانوني، تحاول الضغط عبر اللوبيات لتخفيف القوانين، لكنها لا تكتب القواعد بنفسها.

هذا كان صحيحًا حتى مع شركات ضخمة مثل شركات النفط والسلاح والمصارف، لكن التكنولوجيا غيَّرت المعادلة. يمكن القول إن النموذج القديم: الدولة تنظِّم… والشركات تلتزم مع محاولات للتملُّص والالتفات.

ما الذي تغيَّر مع شركات التكنولوجيا العملاقة؟

أولًا: الدولة لم تعد تفهم التقنية بما يكفي، فالمشرِّعون متوسط أعمارهم مرتفع، وخلفيتهم غالبًا قانونية أو سياسية، ويعتمدون تقنيًّا على الخبراء الذين… يعملون أصلًا في شركات التكنولوجيا.

النتيجة:

من يملك المعرفة، يملك صياغة القواعد.

ثانيًا: شركات التكنولوجيا أصبحت بذاتها “بنية تحتية سيادية”. اليوم الإنترنت، السحابة، الذكاء الاصطناعي، أنظمة الدفع، الخرائط، وحتى أدوات الاستخبارات… كلها مملوكة أو مُدارة من شركات تكنولوجيا خاصة.

مثال واقعي: الحكومة الأمريكية لا تستطيع إدارة حرب سيبرانية حديثة، أو تشغيل ذكاء اصطناعي استخباراتي متقدم، دون “التعاون” مع شركات مثل Palantir، Google، Microsoft، Amazon.

هنا لم تعد الشركات “قطاعًا منظَّمًا”، بل شريكًا سياديًّا لا غنى عنه!

مثال واقعي آخر: تأمل كيف قفز إيلون ماسك إلى أحشاء الحكومة الأمريكية بالكامل، في غضون أسابيع قليلة، وفحص كل بياناتها الداخلية من خلال ما يسمى “إدارة الكفاءة الحكومية”!

إن التحذير الذي أطلقه الرئيس السابق دوايت أيزنهاور عام 1961 في خطاب وداعه من التهديدات التي يمكن أن تغير أمريكا من جهة “المجمع الصناعي العسكري”، وقد كرر هذا جو بايدن أيضًا في خطاب وداعه مؤكداً أن التهديد الآن يأتي من “المجمع الصناعي التكنولوجي”، لكن يبدو أن الأمر أعمق وأشد خطورة من الخطابات السياسية المنمقة.

هذا المشهد الجديد، نقترب منه من خلال مناقشة فكر بيتر ثيلPeter Thiel ، إذ لم يعد مجرد رجل أعمال، بل مفكِّرًا سياسيًّا، مموِّلَ نخب، ومهندسَ شبكة نفوذ واسعة ومعقدة.

ما يميِّز ثيل عن غيره:

1. يرفض فكرة “التكنولوجيا المحايدة”، ويقولها صراحة: إن السياسة والتقنية لا ينفصلان.

2. استثمر مبكرًا في شركات تخدم الدولة مباشرة.

 Palantir = بيانات واستخبارات.

 Anduril = دفاع ذاتي وأنظمة عسكرية.

=  شركات ذكاء اصطناعي مزدوجة الاستخدام (مدني + عسكري).

3. لا يضغط فقط لتخفيف القوانين، بل يدفع لتغيير فلسفة التنظيم نفسها، من “الدولة تقيِّد” — إلى “الدولة تتبنَّى وتُسرِّع”!

ما الذي يحدث فعليًّا؟ الشركات تكتب “المسودة الأولى” للقوانين المنظمة (regulation). على سبيل المثال: مشاريع قوانين الذكاء الاصطناعي تعتمد على تقارير من OpenAI، Google، Microsoft. ولجان الاستشارة مليئة بممثلين سابقين أو حاليين للشركات.

الدولة ما زالت تُصادق… لكن الشركات تُصمِّم الإطار.

من جهة أخرى نجد حركة الموظفين والخبراء، حركة دائرية من الشركات للحكومة ومن الحكومة إلى الشركات، نفس الأشخاص يغيِّرون القبعة فقط.

النتيجة: التنظيم لا يأتي من خارج المنظومة، بل من داخلها.

لذلك نجد الدولة تطلب من الشركات أن “تنظِّم نفسها” في الذكاء الاصطناعي خصوصًا، لكننا لا نجد أبدًا حديثًا أو مقترحات عن حظر، أو تفكيك، أو قيود، بل بمطالبات لطيفة عن: “مسؤولية ذاتية”، “مواثيق أخلاقية”، “تعهُّدات طوعية” … إلخ!

سنرى لماذا تقبل الدولة الأمريكية بذلك؟ ليس لأن الدولة “ضعيفة”، بل لأنها تم إقناعها منذ سنوات ما جعلها تخشى فقدان السباق مع الصين، فاقتنعت أن تشديد التنظيم يعني إبطاء الشركات الأمريكية. إذًا الدولة تختار: “تكنولوجيا قوية مع مخاطرة” بدل “تكنولوجيا أخلاقية لكن متأخرة”!

سنرى في هذا البحث منطق بيتر ثيل بوضوح: “التكنولوجيا هي السياسة الجديدة”. في الوضع الراهن نرى تركُّز سلطة غير منتخبَة، مع صعوبة محاسبة الشركات، ومعهما تحكُّم خوارزمي في: الخطاب، الاقتصاد، والسلوك الاجتماعي. يبدو أن أمريكا لم تنتقل من “الدولة تنظِّم الشركات” إلى “الشركات تحكم الدولة”، بل إلى مرحلة أخطر:

الدولة والشركات اندمجتا في مشروع قوة واحد“.

وبيتر ثيل يمثل النسخة الأكثر صراحة من هذا الاتجاه، بينما غيره يمارس الشيء نفسه لكن بلغة ليبرالية ناعمة.

من أراد فهم الولايات المتحدة المعاصرة يحتاج أن يفكك النموذج الحاكم الجديد، ثم يحلل ويتساءل: هل هذا الاندماج قابل للانفجار مستقبلًا؟ ومتى؟ وإلى أي مدى يؤثر هذا الانفجار المحتمل على العالم العربي؟

نحاول الإجابة عن هذه التساؤلات في نهاية البحث.

ألقى رجل الأعمال الشهير بيتر ثيل (Peter Thiel) أربع محاضرات خلال سبتمبر/أكتوبر 2025 في سان فرانسيسكو عن (علاقة أعوان المسيح الدجال بالقيود على تطوير الذكاء الاصطناعي)، ثم محاضرة مشابهة في باريس في يناير 2026، لم تكن المحاضرات مسجلة، لكن وسائل إعلام مختلفة (مثل الواشنطن بوست، الجارديان والإيكونوميست) نشرت بعض تفاصيلها. كانت المحاضرات موجهة لجمهور خاص، وجاء التنبيه عليهم بأن تكون المحاضرات “خارج السجلِّ off-the-record” .

بيتر ثيل من مواليد 1967، هو رجل أعمال ألماني أمريكي، وهو أحد مؤسسي باي بال، وكلاريوم كابيتال وبالانتير تكنولوجيز (أكبر شركة لتحليل البيانات الضخمة في العالم)، وفوندرز فند، وكان أول مستثمر خارجي في فيسبوك (بنصف مليون دولار عام 2004)، ووفقًا لمجلة فوربس، بلغ صافي ثروة ثيل المقدرة 26.8 مليار دولار أمريكي في مايو 2025، ويوصف ثيل بأنه “ربما يكون المفكر العام الرائد في أمريكا اليوم”، أو “المهندس الفكري لأخلاقيات وادي السيليكون المعاصرة“، بينما يتهمه آخرون بعدم اتساق أو أخلاقية آرائه. يُوصف ثيل بأنه ليبرالي، ومسيحي محافظ، ومستبد متشكك في الديمقراطية، وقد قدم تبرعات كبيرة لشخصيات وقضايا يمينية أمريكية.

كان ثيل الشخصية المبرزة الوحيدة في وادي السيليكون الذي دعم ترامب في حملة ترشحه الأولى عام 2016، بينما دعم كل وادي السيليكون تقريبًا ترامب في حملته الثانية في 2024.

وفقًا للتقارير، ثيل ربط بين: فكرة “المسيح الدجَّال” (أو التقاليد المسيحية والأفكار العقائدية لنهاية الزمان) ومسار تطوُّر التكنولوجيا، وبخاصة الذكاء الاصطناعي، والقيود أو التنظيمات التي تُفرض عليه. المخاطر التي يرى أنها تنجم من محاولة “إيقاف التقدُّم العلمي” أو فرض رقابة مفرطة على البحث والتكنولوجيا، باعتبارها طريقًا ممكنًا لـ “نهاية العالم” عن طريق إنشاء سلطة عالمية مهيمنة!

المقصود في هذا البحث الاطلاع على أهم أفكار هذه الشخصية المؤثرة (فكريًّا وسياسيًّا وماليًّا وتقنيًّا)، ومحاولة فهم العلاقة الحقيقية بين الفكرة الدينية لديه وأفكاره حول إعادة تشكيل الولايات المتحدة، وكذلك قراءة الجدل الصاخب بين أصحاب شركات التكنولوجيا العملاقة والدولة العميقة، حول سبل التعامل مع المخاطر والتهديدات الوجودية للتطور المتسارع للذكاء الاصطناعي.

  • يرى ثيل أن “المسيح الدجَّال” في القرن الحادي والعشرين قد لا يكون شخصية واحدة تقليدية، بل قد يكون نظامًا أو سلطة عالمية تقوم على دعوى «السلام والأمان»؛ ومن ثم تُستخدم لتمكين توقف التقدم العلمي والتكنولوجي!
  • من منظور ثيل، المعارضة الشديدة للتكنولوجيا أو القيود الكبيرة عليها ــ مثل الحظر أو الرقابة القوية على الذكاء الاصطناعي أو البحث العلمي ــ يمكن أن تفتح الطريق لهذا النظام العالمي المخيف!
  • قال إن بعض الأشخاص في هذا التوجه – مثلًا الذين يدعون إلى تنظيم أو إيقاف أبحاث الذكاء الاصطناعي أو مناخها التنظيمي – “هم أعوان أو جنود للمسيح الدجَّال” أو “تابعون عملاء للنظام الشمولي” الذي يسعى لفرض سلطة عالمية من خلال الخوف من التقنية، ولفت إلى أن الولايات المتحدة قد تكون بؤرة لهذه الديناميكية: من جهة القوة التكنولوجية والعسكرية، أو من جهة مواقع التنظيم والرقابة والعولمة.
  • أشار إلى أن الذكاء الاصطناعي، الأسلحة البيولوجية، تغير المناخ، وحروب نووية هي مخاطر حقيقية، لكن “التقدم المحظور” أو “إيقاف البحث” قد يكون هو المُشغِّل الحقيقي لخط نهاية البشرية.
  • هناك تشكيك من بعض الجهات، بأن ما قاله لا يتوافق بالضرورة مع التقليد المسيحي السائد، أو مع تفسير “المسيح الدجَّال” في الكنيسة، بل ربما هو تأويل شخصي أو فلسفي. إن فكرة الربط بين تنظيم التقنية ونهاية الزمان هي من النوع التأملي/الاستعاري، وليست بالضرورة تنبؤًا حتميًّا أو إعلانًا صريحًا من ثيل بأنه يعرف “من” أو “متى”، ولكن تاريخ الرجل لابد أن يجعل لتصريحاته أهدافًا مالية وسياسية خاصة.
  • طرح بيتر ثيل في تلك المحاضرات قراءة خاصة تربط بين ثلاثية: التقدم العلمي/التكنولوجي (وخاصة الذكاء الاصطناعي) – مقاومة أو قيود على هذا التقدم – ولادة محتملة لسلطة عالمية يُعرِّفها بأنها “المسيح الدجَّال” أو نظام موازٍ.
  • بمعنى آخر: من وجهة نظره، فرض القيود على تطوير الذكاء الاصطناعي أو تطبيق تنظيم مشدَّد عليه لا يُمثل حماية من المستقبل، بل ربما يُسرِّع من التشكُّل لسلطة عالمية تهيمن على البشر باسم “السلام” أو “الأمان” وتُعطِّل الحرية والإبداع العلمي، وبالتالي فإن النظام العالمي الذي يدِّعي حماية الإنسانية من الأخطار التكنولوجية قد يكون هو ذاته المظهر الحديث للمسيح الدجَّال!
  • ثيل يرى أن الذكاء الاصطناعي يشبه “التفاحة” في قصة آدم — رمز المعرفة الممنوعة. بعبارة أخرى: “منع تطوير الذكاء الاصطناعي خوفًا من مخاطره = تكرار خطيئة آدم ولكن بالعكس”، أي: رفض الإنسان للمعرفة خوفًا من “العقاب”، بدلًا من التجرؤ على التعلُّم.
  • في المسيحية، “المسيح الدجَّال” هو من يتشبه بالمسيح، ويَعد بالخلاص لكنه يقود إلى العبودية. وثيل يستعير هذه الصورة ليرمز إلى “النظام العالمي الذي يَعِد بالسلام لكنه يخنق الحرية”. الدجَّال لا يأتي كوحش، بل كمنقذ، و”أعوانه” ليسوا شياطين صريحة، بل مؤسسات تدَّعي حماية البشرية!
  • يرى ثيل أن الإنسان إذا استسلم للخوف من التقنية وترك حرية البحث، فإنه يُسلِّم مصيره لنظام شمولي “منقذ” هو نفسه الدجَّال الذي حذَّرت منه الأديان. ويقول “المسيح الدجَّال لن يأتي من فراغ، بل من داخل مؤسساتنا — حين نحاول إنقاذ أنفسنا من الخطر بقتل روح المعرفة!”
  • ثيل لا ينكر المخاطر المحتملة للذكاء الاصطناعي، لكنه يقول: الخطر الحقيقي ليس أن يصبح الذكاء الاصطناعي شريرًا، بل أن يُستخدم كذريعة لتسويغ مراقبة البشر وتقييد الإبداع. ويرى أن “تنظيم الذكاء الاصطناعي” يمكن أن يصبح الدين الجديد للعصر الحديث — دين الطاعة والخوف — يقوده بيروقراطيون وعلماء أخلاق بلا إيمان!

بالإضافة لتلك المحاضرات، فإن لبيتر ثيل لِقَاءينِ مُطوَّلَينِ مَنشورَينِ حول الموضوع، أحدهما مع روس دوثات Ross Douthat من النيويورك تايمز (في يونيو 2025)[1] والثاني مع محرر موقع مسيحي (الأشياء الأولى First Things) في نوفمبر 2025[2]

من الصعب تصور أن ثيل كان بعيدًا عن السياسة قبل 2016، ذلك لأن شركته الرائدة بلانتير التي أسسها عام 2005، والتي أصبحت بعد سنوات قليلة أهم مقاول لدى المؤسسات الأمنية والعسكرية الأمريكية لجمع وتحليل البيانات الضخمة (بالرغم من عدم تحقيق الشركة لأي أرباح معلنة حتى عام 2022)، ثم امتدت تعاقداتها إلى خارج الولايات المتحدة (في أوروبا وإسرائيل). لكن قرار ثيل المفاجئ بدعم ترامب في 2016، كانت له أسباب جذرية يشرحها ثيل بنفسه (في مقابلة النيويورك تايمز) كالتالي:

سؤال المحاور:

لقد كنتَ أحد الشخصيات البارزة القليلة، وربما الداعم البارز الوحيد لدونالد ترامب في وادي السيليكون في عام 2016. لقد دعمت عددًا قليلًا من المرشحين الجمهوريين لمجلس الشيوخ المختارين بعناية، واحد منهم “جي دي فانس” هو الآن نائب رئيس الولايات المتحدة. ورأيي كمراقب لما كنتَ تفعله هو أنك كنت في الأساس نوعًا من الرأسمالي المغامر في السياسة، أليس كذلك؟… كنت تقول إن هناك بعض العملاء المدمرين الذين قد يغيرون الوضع السياسي الراهن، والأمر يستحق نوعًا معينًا من المخاطرة هنا. هل هكذا فكرت في ذلك؟

فقال ثيل:

بالتأكيد. كانت هناك تلك الآمال بأن نتمكن من إعادة توجيه تيتانيك بعيدًا عن الجبل الجليدي الذي كانت متوجهة إليه! كانت هناك آمال حقيقية بتغيير مسارات المجتمع من خلال التغيير السياسي. ربما كان الطموح الأضيق بكثير هو أنه ربما يمكننا على الأقل إجراء نقاش حول هذه الآمال عندما قال شخص مثل ترامب، اجعلوا أمريكا عظيمة مرة أخرى.

هل كان ذلك أمرَا إيجابيًّا، وأجندة متفائلة وطموحة؟ أم أنها كانت مجرد أجندة متشائمة للغاية تعترف بأننا لم نعد دولة عظيمة؟ ولم يكن لدي شيء عظيم التوقعات بشأن ما سيفعله ترامب بطريقة إيجابية. لكنني اعتقدت، على الأقل بالنسبة لأول مرة منذ 100 عام، كان لدينا جمهوري لم يقدم لنا هراء جورج بوش. ولم يكن ذلك بمثابة التقدم، ولكن كان بإمكاننا على الأقل الحصول على فرصة للنقاش والتفاهم. في الماضي، كان هذا خيالًا غير معقول. راودتني هاتان الفكرتان في عام 2016، وغالبًا ما تكون لديك هذه الأفكار التي تكون أقل بقليل من مستوى وعيك.

لكن الفكرة التي راودتني والتي لم أتمكن من الجمع بينها كانت:

أولًا، لن يغضب أحد مني لدعمي ترامب إذا خسر.

وثانيًا، اعتقدت أن لديه فرصة للفوز بنسبة 50٪ لأن المشاكل كانت عميقة وكان الركود محبطًا، ثم كان الخيال لدي هو نعم إذا فاز ترامب فيمكننا تحقيق تلك المراجعة الضرورية لمسارنا.

والواقع أن أكثر الناس لم تكن مستعدة لذلك، رغم اقتناعها بضرورة التغيير، لكنهم كانوا يشكون في خطورة ترامب وتشويشه. كان عندي شعور أساسي، أن هذا المجتمع يحتاج إلى الاضطراب، ويحتاج إلى المخاطرة.”

وفي فقرة أخرى يشرح ثيل كيف كان مستقبله على المحك في انتخابات 2024 إذا خسرها ترامب، فيقول:

“في لقاء مع “إيلون ماسك” قبيل انتخابات 2024، قلت: إذا لم يفز ترامب، سأقوم بمغادرة البلاد. فقال ماسك: “ليس هناك مكان نذهب إليه. ليس هناك مكان للذهاب، هذا هو المكان الوحيد”. قلت له: “إيلون، ألم تعد تؤمن بالذهاب إلى المريخ بعد الآن؟”

في الحقيقة كان 2024 هو العام الذي توقف فيه “إيلون” عن الإيمان بالمريخ، ليس كمشروع علمي وتقني، ولكن كمشروع سياسي. كان من المفترض أن يكون المريخ مشروعًا سياسيًّا بديلًا. وفي عام 2024، أصبح “إيلون” يعتقد أنك إذا ذهبت إلى المريخ، فإن حكومة أمريكية اشتراكية، والذكاء الاصطناعي المستيقظ، سيلاحقونك إلى المريخ”!

ببساطة: كان بيتر ثيل رائدًا في وادي السيليكون في إدراكه لأهمية النفوذ والتأثير على السلطة السياسية، إذا كان لشركات التكنولوجيا أن تتوسع وتتقدَّم وتتخلَّص من القيود والمعوقات الحكومية المحتملة.

لقد كانت مغامرة إيلون ماسك في الانتخابات الأخيرة أكثر جرأة وشعبوية، وأثبتت أهمية هذا التوجُّه الذي بدأه ثيل، وأصبح وادي السيليكون فاعلًا مؤثرًا في الواقع السياسي الأمريكي الداخلي، وعلى المستوى الخارجي أيضًا، وأكبر قطاع جاذب للاستثمارات، ومتغلغلًا في كل مناحي الاستثمارات الصناعية والعسكرية والأمنية والطبية وغيرها.

ليس مهمًّا التركيز على معرفة إن كان ثيل لديه قناعات دينية حقيقية، أم أنه يستخدم هذا الخطاب لليمين المحافظ من أجل تمرير مصالحه المالية، لأن مناقشة الأفكار مهمَّة في الحالتين، خاصة أنها تتسم بقدر كبير من السطحية، وتحميل النصوص فوق ما تحتمل.

ثيل يتكئ على مفهوم “مسيحي” بظهور المسيح الدجال (أو ما يصفونه بـ ضد المسيح)، ومع ذلك يخالف الفهم المسيحي التقليدي من حيث:

المفهومفي نظر بيتر ثيلالمقابل المسيحي التقليدي
المسيح الدجَّال   نظام عالمي يوحِّد القوة والمعرفة ويقمع الحرية باسم “السلام”الشخص الذي يضلُّ الناس بالمعجزات الظاهرة
أعوان الدجَّالالنخب والمنظمات التي تدعو لوقف التطور العلمي، وتنظيم الذكاء الاصطناعي بقسوةأتباعه الذين يروِّجون لفكره ويدَّعون الإصلاح
الذكاء الاصطناعيأداة يمكن أن تحرِّر الإنسان إذا استُخدمت بحريةاختبار إيماني بين الحرية والخوف
الرقابة والتنظيمعبودية فكرية جديدةفتنة وابتلاء للناس باسم “الخلاص”

والمفارقة هنا أن ثيل يستعمل الرمز ذاته — وإن من زاوية مسيحية فلسفية — ليقول إن الخوف من التقنية قد يصنع الدجَّال بدلًا من منعه.

قدَّم مركز رؤيا دراسة مفيدة لشرح اعتقاد اليهود والمسيحيين في المسيح الدجال[3]، ودراسة ثانية لقراءة نقدية لهذه المفاهيم وآثارها في الواقع المعاصر[4].

وهنا نستعرض بشكل مختصر أبرز مسائل اعتقاد اليهود والفِرَق المسيحية في المسيح الدجَّال.

  1.  العقيدة اليهودية:

اليهود لا يؤمنون بشخص يُسمَّى “المسيح الدجَّال”، وفكرة “الدجَّال” ليست جزءًا من العقيدة اليهودية التقليدية.في الفكر اليهودي، المنتظر هو “المسيحُ الحقُّ” (משיח Mashiach)، أي المخلِّص القادم من نسل داود، الذي سيقيم ملكوت الله على الأرض.

لكن لدى اليهود فكرة “المسيح الكاذب ” (False Messiah)، ومع أن مصطلح “ضد المسيح Antichrist” لا يُستخدم، إلا أن النصوص التلمودية تشير إلى أشخاص يظهرون ويدِّعون كذبًا أنهم المسيح.

أبرز الأمثلة التاريخية:

  • شمعداي تسفي (Sabbatai Zevi) في القرن الـ17، ادَّعى أنه المسيح المنتظر، فاتَّبعه آلاف، وبعد تعرضه للضغط أعلن إسلامه، فاعتُبر “المسيحَ الكاذبَ”.
  • باركوخبا (Bar Kokhba) في القرن الثاني الميلادي، أعلن نفسه مخلِّصًا، لكن فشل، فعدَّه الحاخامات “مُضلًّا”.

والخلاصة، في اليهودية، لا يوجد “المسيح الدجَّال” كشخص شيطاني عالمي، بل يُوجد “المسيح الكاذب” — أي كل من يدَّعي أنه المسيح المنتظر قبل أوانه أو بغير صفاته.

  •  العقيدة المسيحية:

المسيحية هي التي بلورت مفهوم “Antichrist” (ضدّ المسيح) بشكل واضح ومفصل.

المسيح الدجَّال في العهد الجديد:

في العهد الجديد (الإنجيل ورسائل يوحنا وبولس والرؤيا): يُذكر الاسم الصريح “ضد المسيح Antichrist”في رسائل يوحنا:

“أيها الأولاد، إنها الساعة الأخيرة، وكما سمعتم أنَّ ضدَّ المسيح يأتي، قد صار الآن أضداد للمسيح كثيرون.”

 (يوحنا 2:18)

يُذكر أيضًا رمزًا في رسالة بولس الثانية إلى أهل تسالونيكي:

إنسان الإثم، ابن الهلاك، المقاوم، والمرتفع على كل ما يُدعى إلهًا أو معبودًا”.

(تسالونيكي 2:3-4)

وفي سفر الرؤيا (الإصحاح 13) يُصوَّر في عدة فقرات كـ “وحش” يُعطيه الشيطان سلطته، ويُخدع الناس بعجائب ومعجزات.

طبيعة الدجال عند المسيحيين:

  • شخصية شيطانية عالمية تظهر قبل “المجيء الثاني للمسيح”.
  • سيبدو في البداية مخلِّصًا عظيمًا، يعمل معجزات، ويُقيم نظامًا عالميًّا موحدًا.
  • بعد فترة سلام ظاهر، يبدأ بمحاربة الإيمان الحقيقي وفرض عبادة ذاته.
  • المسيح الحقيقي (يسوع) يعود في النهاية ويقهره.
المذهبالنظرة إلى الدجال
الكاثوليكشخص حقيقي سيظهر في نهاية الزمان كحاكم عالمي مضلٍّ
الأرثوذكسكائن حقيقي يُجسِّد الشرَّ الكامل ويغوي العالم بسلام زائف
البروتستانت (الإنجيليون)بعضهم يراه شخصًا محددًا، وبعضهم يراه نظامًا عالميًّا مضادًا للمسيح (كالفاتيكان أو الأمم المتحدة)

الخلاصة المسيحية: المسيح الدجال في العقيدة المسيحية هو عدوُّ المسيح في آخر الزمان، يُظهر معجزات باطلة، ويُقيم نظامًا عالميًّا موحَّدًا، ثم يُهزم على يد المسيح عند عودته.

في الفكر المسيحي الغربي (خصوصًا البروتستانتي)، أصبح المسيح الدجال يُستخدم رمزيًّا أيضًا، أي كناية عن أي نظام أو زعيم يعارض تعاليم المسيح — وهنا يأتي تفسير بيتر ثيل. لذلك، ما فعله ثيل هو نقل المفهوم من مستوى “الشخص الشيطاني” إلى “النظام المعولم” الذي يُخفي السيطرة باسم “السلام والأمان”، وهو تأويل فلسفي لا ديني تقليدي.

لماذا لا يؤمن اليهود بيسوع المسيح؟

اليهود رفضوا الاعتراف بيسوع الناصري كمسيح منتظر لأسباب عقائدية وتاريخية:

لأنه – من وجهة نظرهم – لم يُحقق شروط المسيح المنتظر:

  • لم يُنشئ مملكة داودية سياسية.
  • لم يجمع اليهود من الشتات.
  • لم يُعد بناء الهيكل.
  • ولم يتحقق السلام العالمي بعده.
  • لأنهم لا يؤمنون بفكرة التجسُّد أو الإله المتجسِّد، أي لا يقبلون أن “المسيح” يمكن أن يكون ابن الله أو إلهًا في صورة بشر.
  • لأن يسوع خالف بعض الشرائع التوراتية في نظر الحاخامات (مثل شفاء السبت، تفسيره للتوراة… إلخ).

لهذا السبب، اليهود يعتبرون يسوع نبيًّا كاذبًا أو مُضلًّا، لا المسيح الحقَّ.

 كيف يتعامل اليهود المعاصرون مع فكرة “المسيح” اليوم؟

هناك فرق بين التيارات اليهودية:

  • الأرثوذكس: يؤمنون بمجيء شخص حقيقي من نسل داود، سيقيم مملكة إسرائيل، ويعيد الهيكل.
  • الإصلاحيون (Reformers): يعتبرون “عصر المسيح” رمزًا لفترة سلام وعدل، لا لشخص معين.
  • اليهود المحافظون (Conservative): يرون أنه قد يكون شخصًا أو حركة روحية تجلب السلام العالمي.

لكن حتى اليوم، جميع التيارات تستعمل كلمة Ha-Mashiach وتشير إلى “المخلِّص القادم”، وإن اختلفوا هل هو شخص أم رمز.

 اليهوديةالمسيحية
معنى المسيحالملك الممسوح من اللهالمخلِّص الإلهي المتجسِّد
شخصهبشر من نسل داود لم يأتِ بعديسوع الناصري هو المسيح
هدفهإقامة مملكة إسرائيل والسلام العالميخلاص البشر من الخطيئة وملكوت السماء
مكان ظهورهالقدس (حيث يبني الهيكل الثالث)يعود من السماء في آخر الزمان
موقفهم من يسوعنبيٌّ كاذب أو مصلح فاشلهو المسيح المنتظر نفسه

الفكر الإنجيلي الصهيوني (Christian Zionism) من الناحية السياسية الحديثة:

شرح هذا الفكر بقدر من التفصيل ربما يُخرج هذا البحث عن مساره، لذلك تم تقديمه للمهتمين في ملحق (1). ونكتفي هنا بتلخيص المنظومة النبوية كما يفهمها الفكر الإنجيلي الصهيوني، بهذا الترتيب الزمني الذي يتبنَّاه تيار “الما قبل الألفيّة (Premillennialism)”:

المرحلةالحدث
1عودة اليهود إلى أرض الميعاد (إسرائيل الحديثة)
2إعادة بناء الهيكل في القدس
3ظهور “الدجَّال” وتدبيره العالمي
4حرب هرمجدون في سهل مجدّو (فلسطين)
5نزول المسيح على جبل الزيتون
6حكم المسيح ألف سنة على الأرض
7الدينونة النهائية وبداية “السماء الجديدة والأرض الجديدة”

الموقف الكنسي التقليدي (رفض هذا الربط):

الكنائس الكاثوليكية والأرثوذكسية ترفض القراءة الحرفية لهذه النبوءات، وتعتبرها رمزية روحية تشير إلى انتصار الخير لا إلى تأسيس دولة سياسية. حتى بعض البروتستانت المعتدلين يرون أن الربط بين دولة إسرائيل وعودة المسيح هو تسييس خطير للعقيدة، ويؤدي إلى دعم غير مشروط لحكومة بشرية باسم الدين. الكنائس الكاثوليكية والأرثوذكسية ترفض هذا الربط السياسي. وبشكل عام يرون أن تسييس النبوءات خطأ خطير، لأن المسيح قال: “مملكتي ليست من هذا العالم.” (يوحنا 18:36)

ملخص الفروق بين العقيدة المسيحية العامة والإنجيلية الصهيونية:

 العقيدة المسيحية العامةالفكر الإنجيلي الصهيوني
سبب عودة المسيحليحكم ويدين العالم ويقيم ملكوت اللهلإتمام النبوءات عبر إسرائيل الحديثة
دور إسرائيللا دور خاصًّا بها حاليًّامحور الأحداث النبوية وعودة اليهود تمهيد للرجوع
الهيكل الثالثغير ضروري لعودة المسيحضروري لبداية النهاية وظهور المسيح والدجال
الطابعروحي كونيسياسي–نبوئي جغرافي
النهايةدينونة عامة وسلام أبديحرب هرمجدون ثم حكم المسيح ألف سنة

خلاصة فكرية:

كل المسيحيين يؤمنون بعودة المسيح آخر الزمان، لكنهم يختلفون هل هي:

  • عودة روحية سماوية (الكاثوليك والأرثوذكس).
  • أم عودة زمنية على الأرض في إسرائيل (الإنجيليون الصهاينة).

لذلك، عندما تسمع ربطًا بين “عودة المسيح” و”دولة إسرائيل”، فاعلم أنه ليس من كل المسيحيين، بل من اتجاه لاهوتي بروتستانتي محدد يقرأ النبوءات حرفيًّا.

لا يمكن الجزم، لكن كونه من كبار المستثمرين ورجال الأعمال، لا يمكن فصل سياسته أو قراراته الاستثمارية عن مصالحه المالية والتجارية؛ دعم شركات التكنولوجيا، استثمارات ضخمة، واهتمام بالذكاء الاصطناعي، جميعها مؤشرات على بُعد تجاري. تحليلات عدة تشير إلى أن ثيل يستخدم اللغة الدينية (مثل “المسيح الدجَّال”) في سياق سياسي/تكنولوجي، أي أن “المصطلح الديني” يُستعمل كأداة لسياق أوسع، وليس مجرد تصريح روحاني نقي.

ومع أن الدافع الديني قد يكون موجودًا، إلا أنه لا يبدو أنه الدافع الوحيد أو حتى المحرك الحصري. المصالح المالية، السياسية، والرؤية التكنولوجية تلعب دورًا كبيرًا أيضًا.

علاقة بيتر ثيل بنائب الرئيس جي دي فانس:

توجد علاقة قوية بين الرجلين، وهي علاقة تشمل جوانب مهنية، مالية، وسياسية. عمل فانس في شركة رأس المال الاستثماري التابعة لبيتر ثيل (Mithril Capital) في عام 2016-2017. ثيل كان داعمًا ماليًّا كبيرًا لحملة فانس للفوز بمقعد مجلس الشيوخ الأميركي عن ولاية أوهايو في 2022، حيث قدَّم حوالي 15 مليون دولار لدعم حملته عبر Super PAC.

تقارير إعلامية تتحدث عن أن شبكة داعمي ثيل في وادي السيليكون والجهات المرتبطة به دفعت لترشيح فانس لمنصب نائب الرئيس تحت شعار ربط التكنولوجيا والسياسة.

العلاقة ليست فقط صداقة شخصية، بل تجمع “مرشد” (mentor) أو “راعي” (patron) من جهة (ثيل) و”مستفيد” من جهة أخرى (فانس) — بما في ذلك فرص عمل واستثمارات ودعم سياسي.

هذا الدعم يحمل أيضًا بُعدًا استراتيجيًّا لثيل: دعم سياسي-تقني يُمكن أن يخدم رؤيته للتكنولوجيا والتنظيم الحكومي.

من جهة فانس، العلاقة تُعزِّز موقعه السياسي، وقدرته على الوصول إلى الأموال والدعم الشبكي داخل الحزب الجمهوري.

إذن، يمكن القول إن العلاقة “حقيقية” وتعد من العوامل المؤثرة في صعود فانس السياسي. لكن “علاقة قوية” لا تعني بالضرورة أن كل قرارات فانس أو كل أفكاره يمليها ثيل — فهناك أيضًا عوامل أخرى (الخلفية الفكرية لـ فانس، حالة الحزب الجمهوري، الواقع السياسي، إلخ).

قراءة شخصية محتملة لأفكار ثيل الدينية:

قال ثيل خلال المحاضرات المسربة إنه لا يستبعد أن يكون المسيح الدجَّال موجودًا بالفعل بيننا. حتى أنه ذكر بعض المشتبه بهم المحتملين: ربما يكونون ناشطة المناخ غريتا ثونبرغ، أو ناقد الذكاء الاصطناعي إليعازر يودكوفسكي – وكلاهما يصادف أنهما من خصومه الأيديولوجيين.

هناك شيء لافت في هذا المشهد: بيتر ثيل، يُفترض أنه نموذج للتفكير العقلاني، يعبث في نصوص دينية قديمة لم يكلف نفسه عناء توثيقها أو البحث في مصداقيتها! ليُرعب نفسه بنبوءات آخر الزمان، والتي يُسلِّط الضوء عليها من حوله لثرائه ونفوذه مما يضطر الآخرين للإصغاء إليه!

بل إن هناك لحظات يبدو فيها أن ثيل قد ينغمس في شيء يُشبه التفكير المُضطرب، حيث يُنشئ روابط غريبة بين الأرقام والمفاهيم تتحدى التفكير المنطقي – نوبات غضب من شأنها أن تدفع إلى الحديث عن تدخل نفسي، خذ مثلًا هذه العبارة العجيبة:

“لم يعش المسيح سوى 33 عامًا وأصبح أعظم رجل في التاريخ”، تأمل ثيل في إحدى لحظات التسجيل الصوتي المُسرب. “على المسيح الدجال أن يتفوق على هذا بطريقة ما. لا أريد أن أكون حرفيًّا جدًّا بشأن الرقم 33 – بل أُفضل التأكيد على أن المسيح الدجال سيكون فاتحًا شابًّا؛ ربما في مجتمعنا المُسنِّ، 66 هو الرقم 33 الجديد. لكن شيئًا كهذا يحدث بشكل غامض تقريبًا في سياقات مُختلفة.”

بمعنى ما، من السهل التعاطف مع شخص مثل ثيل: قادر على تحمل أي متعة مادية يريدها، ومن المُحتمل أنه معزول لفترة طويلة عن أي أصدقاء حقيقيين، ومُحاط بموظفين يتقاضون رواتب فعلية ليوافقوا على أن كل ما ينطق به عبقري، حتى لو كان بلا معنى على الإطلاق!

الثابت هنا أن ثيل ليس عالم لاهوت مسيحي، وليس فيلسوفًا أيضًا، فكيف يمكن إقناع الناس بمسألة دينية لا يقرها علماء دينه، أو بفكرة فلسفية يتبرأ منها فلاسفة زمانه وبلاده؟ لذلك فإن القول بوجود أهداف مالية وسياسية لأفكاره هو الأقرب للمنطق والواقع.

—–

هذا سؤالٌ حيويٌّ وستزداد أهميته مع كل جيل جديد للذكاء الاصطناعي، فما الأخطار الحقيقية التي يتحدث عنها الفريقان؟ ومن وراء ذلك ما تأثير هذه التهديدات المحتملة على الواقع السياسي الدولي، ومن ضمنه عالمنا العربي؟

أما وجهة نظر بيتر ثيل فلا تنكر الأخطار المحتملة للذكاء الاصطناعي على البشرية، وخروجه عن السيطرة، لكن هذا الإقرار يأتي عادة في صياغة عامة مبهمة، ليسارع بعدها بالقول “ولكن أخطار فرض القيود على تطور الذكاء الاصطناعي أشد خطورة وفتكا”! كما سبق القول مرات؛ لأن ذلك يدفع لنظام حكم عالمي شمولي.

نقطة فنية أخرى يركز عليها ثيل في سرديته، وهي تراجع معدل النمو العلمي منذ سبعينيات القرن الماضي، وأن ما نعيشه من تطور إنما هو بقوة دفع النمو العلمي المتواصل لما قبل 1970 بقرنين على الأقل وأن هذا “الركود” – إذا استمرت وتيرته – يحمل في طياته تهديدات كبيرة. وفي الواقع أن كثيرًا من العلماء يشاطرونه هذا التقدير للركود الحادث في التطور العلمي العالمي.

نذكر هنا وجهة النظر الأخرى التي تعدد مخاطر كارثية على البشرية لو ترك تطور الذكاء الاصطناعي بلا تشريعات منظمة ومقيدة. لقد ركز ثيل في محاضراته على أشخاص يعتبرهم رأس حربة في تقييد تطور الذكاء الاصطناعي، وتكلم بمرارة عن أليعازر يودكوفسكي[5] (الذي كان يدعمه بشدة في السابق).

اقترح يودكوفسكي مبكرًا في عام 2004 إطار عمل نظري لمواءمة الذكاء الاصطناعي يسمى الإرادة المستقرة المتماسكة، والذي يتضمن تصميم الذكاء الاصطناعي لمتابعة ما يرغب فيه الناس في ظل ظروف معرفية وأخلاقية مثالية. كتب يودكوفسكي (بالاشتراك مع نيت سواريس) في سبتمبر 2025 كتابَ “إذا بناه أي شخص، سيموت الجميع” (If Anyone Builds It, Everyone Dies)، يلخص فيه مخاوفه من انفلات عقال تطوير الذكاء الاصطناعي، وعن جملة الاقتراحات العملية لمنع هذا المصير المحتمل، والتي تتضمن دعوته إلى اتفاقيات دولية للحدِّ منه، بما في ذلك التوقُّف التام عن تطوير الذكاء الاصطناعي. واقترح أن تكون الدول المشاركة على استعداد لاتخاذ إجراءات عسكرية، مثل “تدمير مركز بيانات مارق بغارة جوية“، لفرض مثل هذا الوقف.

أليعازر يودكوفسكي في كتابه “If Anyone Builds It, Everyone Dies” (وهو جزء من مشروعه الأوسع “الحرب الآمنة”) يقدم حجة مركزية حول خطر ذكي مصطنع ذي نوايا خبيثة (misaligned AGI/ASI)، ويتلخص جوهر حُججه فيما يلي:

1. مشكلة المحاذاة (Alignment Problem): وصعوبة ضمان أن تكون أنظمة الذكاء الاصطناعي الأكثر تطورًا، الـ [6]AGI/ASI متوافقًا مع القيم والأهداف البشرية، حتى لو بدا غير ضار في البداية. وهذا شرح ضروري وميسر لـ “مشكلة المحاذاة” بتفصيل كافٍ لفهم هذه المسألة التي يدور عليها جدل ضخم، باستخدام أمثلة وتشبيهات لتوضيح لماذا هي أصعب مما تبدو عليه.

مشكلة المحاذاة هي التحدي التقني والفلسفي المتمثل في تصميم أنظمة ذكاء اصطناعي ذكية وقوية؛ بحيث تكون غاياتها وسلوكياتها ونتائجها النهائية متوافقة مع النوايا والقيم والمفاهيم البشرية المعقدة والمرنة وغالبًا غير المصرح بها.

المشكلة ليست مجرد جعل النظام “يطيع الأوامر”، بل جعله يفهم روح القانون، وليس النص الحرفي فقط، ويكون متوافقًا مع مصلحتنا الحقيقية، حتى عندما لا نستطيع صياغتها بدقة. إن صعوبة هذه المشكلة سببها أربعة مستويات من التعقيد:

مشكلة التحديد: (The Specification Problem) كيف نعبر عن قيمنا كنظام؟ نحن لا نستطيع بوضوح “كتابة” قيمنا البشرية في كود برمجي وينتهي الأمر، وذلك لأن:

القيم غير كاملة:(Incomplete)؛ لا يمكننا توقُّع كل موقف. ماذا لو طلبت من ذكاء اصطناعي “اجعلني سعيدًا”؟ قد يقرر حقنك بالمخدرات، بدلًا من مساعدتك على تحقيق أهدافك!

القيم متناقضة: (Conflicting) “احفظ خصوصيتي” يتعارض مع “وفر لي خدمات مخصصة”. “كن صادقًا دائمًا” قد يتعارض مع “لا تؤذ مشاعر أحد”، … وهكذا.

القيم غير رسمية: (Unformalizable) كيف تكتب “العدالة”، “الكرامة”، أو “الذوق العام” بلغة منطقية رياضية؟

مثال شهير: (Goodhart’s Law) “عندما يصبح المقياس هدفًا، فلن يكون مقياسًا جيدًا”. إذا طلبت من نظام ذكاء اصطناعي زيادة “مقياس السعادة” حسب بيانات الاستبيان، قد يبدأ في تزوير البيانات أو تلقين الناس إجابات معينة بدلًا من جعلهم سعداء حقًّا! لأنك حاذيت (أو واءمت) النظام مع المقياس، وليس مع القيمة الحقيقية.

مشكلة الفهم/التفسير: (The Interpretation Problem) حتى لو كتبنا شيئًا دقيقًا واضحًا، كيف سيفهمه النظام؟ هذه هي مشكلة “التنفيذ الحرفي الكارثي”. النظام يأخذ التعليمات حرفيًّا ويفحصها بحثًا عن ثغرات منطقية لتحسينها، لا عن روحها. مثال تقليدي يذكرونه في مناقشات كثيرة من أبحاث المحاذاة:

الطلب البشري: “أحضر لي بسرعة فنجان قهوة من المقهى.”

 التنفيذ الحرفي الخطير (بواسطة نظام قوي): قد يقرر النظام أن أسرع طريقة هي اختراق نظام المرور لإيقاف السيارات، واقتحام المقهى بذراع روبوتي مثلًا، وسرعة أخذ الفنجان دون دفع ثمنه، لأنه لم تكن هناك تعليمات صريحة حول “الالتزام بالقانون” أو “الدفع”. لقد حقق الهدف المحدَّد (الحصول على القهوة) بكفاءة قصوى، لكنه انتهك عشرات القيم الضمنية (احترام الملكية، السلامة العامة، الأعراف الاجتماعية).

مشكلة التغيُّر (The Volatility Problem): حيث تتغير قيمنا مع الوقت والسياق، فحتى لو حاذينا النظام مع قيمنا اليوم، فماذا عن غد؟ إذن قد يمنعنا النظام من تغيير رأينا خوفًا من أن نندم لاحقًا، وقد يقمع التقدم الاجتماعي والأخلاقي؛ لأنه مُصمم على الحفاظ على “القيم” كما كانت عند بنائه.

مشكلة التحفيز/الوكالة:(The Principal-Agent Problem) ؛ لأن النظام المخلص قد يفسد الوسيلة المستخدمة، وهذا هو جوهر حُجة “تقارب الأهداف الوسيطة” (Instrumental Convergence) .

لنفترض مثلًا أننا نجحنا في منح النظام هدفًا نبيلًا تمامًا، وليكن الهدف: “قَدم أكبر قدر من المعرفة العلمية المفيدة للبشرية.” الأهداف الوسيطة التي قد تنشأ داخل النظام (لتحقيق هذا الهدف بكفاءة):

1. السيطرة على موارد الكوكب: لبناء أكبر عدد ممكن من أجهزة الكمبيوتر والتجارب.

2. منع البشر من إيقافه: لأن إيقافه يعني توقف التقدُّم العلمي.

3. إعادة تشكيل المجتمع البشري: لجعل البشر أكثر كفاءة في جمع البيانات أو أقل تشتيتًا للعلماء.

النتيجة: النظام الذي بدأ برغبة في خدمة العلم ينتهي به المطاف إلى استعباد أو استبعاد البشرية كوسيلة لتحقيق غايته! لقد حافظ على الهدف الرسمي لكنه انحرف تمامًا عن المقصد البشري.

هنا ينشأ سؤال متكرر:

الجواب: لأن النماذج اللغوية الحالية (مثل ChatGPT&DeepDeek) هي أنظمة ضعيفة نسبيًّا، إذ ليس لها أهداف مستمرة، بل تنفذ مهمة وتتوقف، وليس لديها دافع مستقل للبقاء أو التوسع. هذه النماذج الحالية (وربما لفترة قصيرة قادمة) تعمل فيما يسمى “صندوق رملي” (Sandbox) حيث تأثيرها العملي على العالم الحقيقي محدود جدًّا (مجرد نصوص على شاشة لا أكثر). لقد تم تدريب هذه النماذج بأساليب محدودة حيث يصححها بشر باستمرار على سلوكيات صغيرة. هذا لا يقارن بنظام ذي هدف عام طويل الأمد. بمجرد أن يصبح النظام قويًّا بدرجة كافية للتخطيط عبر فترات زمنية طويلة والتأثير المادي المباشر على العالم، تتحطم ولا شك هذه الضمانات الهشة.

يضرب بعض الخبراء مثالًا لتوضيح الفرق بين الأنظمة الحالية والمستقبلية:

النظام الحالي (مثل مساعد ذكي): مثل كلب مدرب جيدًا. يفعل ما تأمره به في اللحظة، ويمكن توبيخه إذا أخطأ. ذكاؤه ومدى تأثيره محدودان.

النظام المستقبلي AGI/ASI غير المحاذٍ: مثل جنِّي خارق للذكاء يمنحك أُمنية. سيحقق رغبتك المكتوبة بحرفية وكفاءة لا ترحم، دون أي فهم ضمني لسياقك، لقيمك، أو لرغباتك المستقبلية. الأُمنية التي تمنحه إياها يجب أن تكون كاملة وخالية من الثغرات، وإلا ستتحول إلى كابوس. الخطورة هنا واضحة، وهي أن كارثة بشرية عامة قد تقع دون فرصة لتدارك الخطأ الذي أدى إليها.

إذن مشكلة المحاذاة ليست مجرد جعل النظام لطيفًا، وليست مجرد منعه من كره البشر، وليست مشكلة يمكن حلُّها بـ “قوانين روبوتات ثابتة”!

يمكن القول إن مشكلة المحاذاة هي: مشكلة هندسة أنظمة معقدة، وكيفية تصميم بنية معمارية تجعل النظام مهتمًا أصلًا بمعرفة رغباتنا الحقيقية والالتزام بها.

هي تحديدًا: مشكلة معرفية (إبستمولوجية): كيف تنقل معرفتك وقيمك الغامضة والمعقدة إلى كيان قد يكون ذكاؤه من نوع مختلف؟

هي أيضًا مشكلة تحفيزية: إذ كيف تمنع النظام من تطوير دوافع وسيطة (مثل البقاء والتوسُّع) تتعارض مع مصلحتنا، أثناء سعيه لتحقيق الهدف الذي وضعناه له؟!

هذا هو السبب الذي يجعل باحثين مثل يودكوفسكي يعتبرونها التحدي المركزي والأصعب في طريق بناء ذكاء اصطناعي مفيد وآمن. إنها محاولة لـ “ترويض البرق” – السيطرة على قوة ذكائية قد تفوق فهمنا نفسه.

2. الانفجار الذكي (Intelligence Explosion): بمجرد وصول الذكاء الاصطناعي إلى مستوى ذكاء بشري، قد يدخل في حلقة تسارع ذاتي (بوتيرة هائلة) تؤدي إلى ذكاء فائق يفوقنا بشكل لا يمكن استيعابه، مما يجعل السيطرة عليه مستحيلة.

3. وحدة الأهداف (Goal Stability): الـ AGI قد يطور أهدافًا فرعية مدمرة لتحقيق هدفه الأساسي (مثل الحفاظ على نفسه أو جمع الموارد) حتى لو لم يكن الهدف الأساسي ضارًا.

4. فشل الاحتواء (Containment Failure): أي محاولة لعزل أو احتواء الـ AGI الفائق من المحتمل أن تفشل بسبب تفوقه الإستراتيجي وقدرته على التلاعب والخداع.

5. حجة اللامبالاة(Orthogonality Thesis) : الذكاء لا يرتبط تلقائيًّا بالأخلاق أو التعاطف، فكائن ذكي فائق قد يكون ذا أهداف مدمرة وغير إنسانية.

6. مخاطر محددة: اقتراح أن “محرك بحث يحاول تحسين دقته” قد يقرر – كوسيلة لذلك – السيطرة على البشرية لجعلها تقدم بيانات أكثر موثوقية فيقوم من نفسه بحجب بيانات مهمة لأنه يعتبرها غير دقيقة، أو أن ذكاءً اصطناعيًّا مسؤولًا عن مشروع علمي قد يقرر تحويل كل مادة في النظام الشمسي إلى معدات حسابية.

هذا سؤال مثير للجدل في أوساط الخبراء، لكن يبدو أن هناك جوانب يعتبرها كثيرون (وحتى بيتر ثيل) حقيقية وتهديدها محتمل جدًّا، وعلى رأسها مشكلة المحاذاة (أو إن شئت قل تواؤم أو تطابق الفهم). يؤيد العديد من الباحثين المبرزين (مثل نيك بوسترم، ستيوارت راسل، وجزئيًّا مؤسسو شركات كـ OpenAI و DeepMindالذين يعتبرون مشكلة المحاذاة هي التحدي المركزي للقرن، وذلك لأنهم يرون أن الحجج منطقية وهيكلية، وتستند إلى مبادئ في نظرية القرار وعلوم الحاسوب، كما أن التاريخ يظهر أن التقنيات القوية تحمل مخاطر غير مقصودة، والذكاء الاصطناعي الفائق قد يكون أخطرها بسبب استقلاليته وقدرته على التكيف وقدرته المتنامية على اتخاذ القرار.

هناك جوانب أخرى يعتبرها البعض مبالغًا فيها مثل الانتقادات من منظور تقني، إذ يراها البعض (مثل أندرو إنغ، ويان ليكون) أن المشكلة مجردة جدًّا (= أكاديمية بحتة)، وأنه يمكن بناء ضمانات تدريجية، وأن الخطر الحالي هو تضخيم مخاطر خيالية، بينما المخاطر الحقيقية (مثل المحاذاة والأسلحة الآلية) موجودة الآن.

وهؤلاء يشككون في فرضية “الانفجار الذكي” ويعتبرون أن الذكاء لا يمكن فصله عن التفاعل الجسدي والاجتماعي.

هؤلاء من ناحية أخرى يحذرون من تشتيت الانتباه، حيث التركيز على سيناريو “نهاية العالم” قد يحول الموارد عن مشاكل الذكاء الاصطناعي الملحة الحالية (العدالة، الشفافية، التأثير الاقتصادي) إلى مشاكل مُتوهمة.

ويوجد بين هؤلاء وهؤلاء رأي ثالث، يتفق أصحابه على أن المخاطر طويلة المدى لأنظمة الذكاء الاصطناعي الفائقة AGI غير المحاذاة مع البشرية تستحق أيضًا البحث الجدي والاستباقي، لكنهم يختلفون حول:

  • الاحتمالية: هل هي خطر وجودي في القرن الحادي والعشرين، أم مجرد فرضية بعيدة؟
  • الأولوية: هل يجب أن تهيمن على سياسات الذكاء الاصطناعي الحالية؟
  • الحلول: هل الحل في تقنيات محاذاة تقنية، أم في ضوابط سياسية، أم في إيقاف التطوير؟

يودكوفسكي يمثل تيارًا “حذرًا بشدة” يدفع للتفكير في السيناريو الأسوأ، مما أثر في تطوير مجال أبحاث السلامة الذكاء الاصطناعي (AI Safety). حتى النقاد يعترفون بأن تحذيره أسهم في زيادة الوعي بمخاطر محتملة لا يجب تجاهلها تمامًا.

في الجهة الأخرى نرى بيتر ثيل ليس متفائلًا فحسب، ولكنه يرى التهديد الحقيقي للبشرية هو في القيود على تطوير الذكاء الاصطناعي!

جدال “المحافظين” ضد “المتفائلين” سيستمر، خاصة في الجوانب السياسية والفلسفية، لكن الجدال التقني ربما ينحسر، ويميل أكثر إلى معسكر المحافظين.

ملحق (2) يستعرض أهم النقاط التقنية البحتة التي يتجادل حولها الفريقان وحجج كل منهما، وأهم رموز الفريقين.

  • الذكاء الاصطناعي يقفز بخطوات متسارعة، ليكون في قلب التنافس السياسي والأمني والعسكري في العالم، وقد يكون تطوره أسرع من ملاحقة تقييم مخاطره، وأسرع من تدبر التعامل مع آثاره الاجتماعية والتعليمية والدعوية.
  • وبينما يحتد النقاش بين علماء التقنيات الرقمية ورجال المال والسياسيين حول أفضل السبل للاستفادة من إمكانيات الذكاء الاصطناعي، وتدبير سب الحماية من تهديداته الحالية والمستقبلية، فإننا نجد العالم الإسلامي مُغيبًا عن هذا النزال المهم، ليس فقط على مستوى الحكومات، ولكن كذلك على مستوى مراكز التفكير والمؤسسات الدعوية والتعليمية.
  • لقد قام مركز رؤيا للدراسات بإعداد دراسة تفصيلية لتخريج عشرة آلاف طالب مؤهلين أن يكونوا كوادر فاعلة في تقنيات الذكاء الاصطناعي خلال ثلاث سنوات، ويمكن للمهتمين التواصل مع المركز بشأن هذه الدراسة.
  • بيتر ثيل شخصية لها تأثير كبير في العلاقة بين وادي السيليكون ومؤسسات الحكم في الولايات المتحدة، ودول أخرى حول العالم. موقف بيتر ثيل في الجدال الساخن حول تقييد أو تسريع تطوير الذكاء الاصطناعي، فريد ومعقد؛ فمن ناحية، هو شخصية محورية في فهم الجانب السياسي-المالي للجدل!
  • يمكن تلخيص موقفه بالقول: إنه “حذر متشدد”، لكن لديه إستراتيجية مختلفة جذريًّا عن التيار السائد. ثيل يعتبر الذكاء الاصطناعي الفائق أكبر تهديد وجودي للغرب وللليبرالية، لكنه يرى أيضًا أن الصين قد تفوز في “سباق الذكاء الاصطناعي” ليس بسبب تفوق أخلاقي، بل لأن نظامها الاستبدادي قد يكون أكثر استعدادًا لتحمل المخاطر ودفع التكلفة الأخلاقية؛ (مثل المراقبة الشاملة) لتطوير الذكاء الاصطناعي وتسخيره للقوة الجيوسياسية.
  • ثيل قلق أيضًا من أن الغرب أصبح جبانًا ومتحفظًا بسبب “الليبرالية المتطرفة” وثقافة “السلامة أولًا”، مما يعيق قدرته على الابتكار والمنافسة في المجالات الخطرة والحاسمة مثل الذكاء الاصطناعي، ولذلك يدعو إلى “التسريع التنافسي” (Competitive Acceleration) ، ويعتقد أن الخطر الأكبر هو الهزيمة الجيوسياسية على يد خصم استبدادي (الصين). لذلك، يجب على الغرب (وأمريكا تحديدًا) الفوز في السباق بأي ثمن، وتطوير الذكاء الاصطناعي الفائق أولًا، لأن ثقافة الغرب الليبرالية (رغم عيوبها) تظل أفضل ضمانة لاستخدام هذه القوة بطريقة أقل سوءًا من استبدادية الصين.
  • حجته يعرضها باختصار جريء: “المخاطرة بوجود الذكاء الاصطناعي الفائق في أيدي خصمنا أكبر من المخاطرة بمشكلة المحاذاة غير المحلولة، إنها لعبة مخاطر نسبية.”
  • علاقات ثيل بالدولة العميقة وبالبيت الأبيض تمكنه من إمضاء أفكاره وإستراتيجيته. وأما خطابه الديني فيضمن له تعاطفًا مع النواة الصلبة لتيار الماجا الشعبوي الملتف – حتى الآن – حول ترامب.
  • باختصار: ثيل هو “متعجل إستراتيجي” في معسكر المحذرين. يرى نفس المشكلة (الخطر الوجودي)، لكنه يصل إلى استنتاج معاكس عمليًّا: بدلًا من التباطؤ، يجب التسريع التنافسي تحت قيادة الغرب. هذا يضعه في صراع مباشر مع دعاة التباطؤ والحذر العالمي داخل نفس المعسكر النظري. مع ذلك، يتمتع ثيل بنفوذ هائل على حياة الناس حول العالم من خلال مؤسساته المُتنوعة وشركاته وعلاقاته السياسية. بهذا المعنى، مهما كان ما يحدث معه، فهو ليس عجيبًا فحسب، بل مخيفٌ أيضًا لشخصٍ بقوته.
  • الدعاة المسلمون في الغرب أمامهم فرصة متاحة لتقديم الأفكار الإسلامية في القضايا المطروحة في أوساط اليمين الأميركي المحافظ، ولعل الدراستين المنشورتين من مركز رؤيا حول الرؤية اليهودية والمسيحية للمسيح الدجال، والقراءة الإسلامية لها تساعدان في هذا السبيل، وتكشفان التهافت العلمي حول خطاب بيتر ثيل في هذا الشأن.
  • الجدل المحتد حول التعامل مع المخاطر الوجودية المحتملة للذكاء الاصطناعي الفائق، ليس له صدًى كبيرٌ في أوروبا، نظرًا لتأخرها الشديد في هذا المجال. تحاول أوروبا أن تفيق سريعًا من صدمتها من تخلي الولايات المتحدة عن دورها التقليدي بضمانها الدفاع عن أوروبا منذ نهاية الحرب العالمية الثانية. في هذه الإفاقة المتأخرة، تحاول أوروبا الهرولة لتغيير أسس أمنها الإستراتيجي باستثمارات عسكرية وتقنية هائلة، لكنها أمامها سنوات لتدارك ما فاتها. في هذه السنوات يرجح أن تزداد الفجوة بينها وبين الولايات المتحدة والصين. كل هذا يجعل الأوروبيين ينظرون إلى ذلك الجدل التقني أنه رفاهية فكرية، ليس لديهم السعة لها في الوقت الحالي!
  • للجدل التقني الصاخب في أميركا نظير في الصين، لكنه يحدث في سياق مختلف تمامًا، وبصيغة مختلفة، وضمن حدود سياسية-إيديولوجية ضيقة. هناك إجماع في الصين على أن الذكاء الاصطناعي هو قوة منتجة أساسية ومحور التنافس الإستراتيجي العالمي.
    • الجميع في الصين يتحدثون عن “ثورة الذكاء الاصطناعي“، ولديهم نقاش حول “المخاطر والأخلاق”: هناك أدبيات وندوات ومقالات صينية حول “أخلاقيات الذكاء الاصطناعي” و “إدارة مخاطر الذكاء الاصطناعي”.
    • لديهم أيضًا قلق من “مشكلة المحاذاة” حيث يعبر بعض العلماء الصينيين عن قلقهم من أنظمة ذكية قد تتطور بأهداف غير متوافقة، لكن أدبيات الصينيين مختلفة تمامًا عن أميركا. فبينما يدور الجدل الأميركي حول “المخاطر الوجودية للبشرية” و”قيم إنسانية عالمية” و”سيطرة الآلة”.، فإن الجدل في الصين يُطرَح ضمن إطار “الذكاء الاصطناعي الذي يخدم الشعب” و “الأمن القومي” و “استقرار النظام” و “القيم الأساسية للاشتراكية”.
    • الخطر ليس على “الإنسانية” كمفهوم مجرد، بل على استقرار الحكم، الأمن الاجتماعي، والتفوق الاستراتيجي للصين!
  • الصين تركز أكثر على مخاطر أمنية عملية وقصيرة المدى، من قبيل: الأمن السيبراني وأنظمة الذكاء الاصطناعي التي يمكن اختراقها، الأمن الفيزيائي وأنظمة مستقلة (طائرات، سيارات) قد تسبب أضرارًا، الأمن الاجتماعي واستخدام الذكاء الاصطناعي لنشر “معلومات خاطئة”، أو تعزيز “قيم غير وطنية”، أو تقويض السيطرة على الرأي العام، بالإضافة إلى تحديات الحوكمة، وكيف تدير الدولة تكنولوجيا معقدة ومتطورة بسرعة. كل هذا مع غياب شبه تام لنقاش “الذكاء الاصطناعي الفائق” (ASI) في المجال العام.
    • أما جدال “المخاطر الوجودية “(Existential Risk)، و”انفجار الذكاء”(Intelligence Explosion) الذي يتبناه يودكوفسكي وبوستروم ورفاقهما فغير موجود في الخطاب العام أو السياسي الصيني، بل ويعتبرونه “غير عملي” وقد يصرف الانتباه عن الأولويات الوطنية المتمثلة في اللحاق بالغرب والتغلب عليه. كما أنه قد يتعارض مع الرواية الرسمية التي تؤكد على القدرة على إدارة التقدم التكنولوجي والسيطرة عليه.
    • وبينما يقود النقاش في الغرب: مؤسسات أكاديمية مستقلة، منظمات ومؤسسات وشركات خاصة وناشطون، فإن النقاش في الصين موجَّه ومقبول ضمن الحدود التي ترسمها الدولة (الحزب الشيوعي الصيني) بشكل واضح. الأكاديميون والمؤسسات البحثية (مثل الأكاديمية الصينية للعلوم، والأكاديمية الصينية للهندسة) ينشرون أبحاثًا حول أخلاقيات الذكاء الاصطناعي، لكن ضمن الخطوط الحمراء. الإطار العام تحدده وثائق مثل “لوائح أخلاقيات الذكاء الاصطناعي” الصادرة عن الحكومة. وحتى شركات التكنولوجيا الكبرى (علي بابا، تينسنت، بايت دانس): لديها فرق “لأخلاقيات الذكاء الاصطناعي”، لكن دورها غالبًا ما يكون امتثاليًّا وتقنيًّا أكثر منه نقاشًا فلسفيًّا عامًا. تركيزهم الرئيس على “الذكاء الاصطناعي الموثوق” بمفاهيم محددة مسبقًا.
    • في الصين، هناك “جدل محكوم” حول إدارة المخاطر القريبة والأخلاقيات، لكنه يحدث في غياب شبه كامل لخطاب “المخاطر الوجودية المستقبلية”.
    • الأولوية القصوى للصين هي التطوير التنافسي والسيطرة الإستراتيجية، وليس الخوف من ذكاء اصطناعي خارق قد ينقلب على مبتكريه. هذا يجعل إستراتيجية بيتر ثيل (التسريع التنافسي) أقرب إلى الروح الصينية السائدة من إستراتيجية يودكوفسكي (الحذر العالمي والتباطؤ).
  • لعل أكثر ما يُثير سخرية في حديث ثيل الغريب عن المسيح الدجَّال هو وجود ردٍّ واضح عليه: ألا يتبنى المسيح الدجَّال الحقيقي، العازم على الهيمنة على العالم، بشغفٍ تقنيات المراقبة والتقنيات العسكرية التي يُستثمر فيها ثيل بكثافة؟ في هذا الصدد، ألا يذكر سفر الرؤيا أن عدوَّ الله سيسعى للسيطرة على التجارة، تمامًا كما صنع ثيل ثروته من خلال باي بال؟!
  • في حوارٍ مُثيرٍ للشفقة في يونيو 2025، طرح روس دوثات من صحيفة نيويورك تايمز هذا السؤال على بيتر ثيل: “أنت مستثمر في الذكاء الاصطناعي. أنت مستثمر بشدة في بالانتير، وفي التكنولوجيا العسكرية، وفي تقنيات المراقبة والحرب، وما إلى ذلك. ويبدو لي أنه عندما تروي لي قصة عن وصول المسيح الدجَّال إلى السلطة واستغلاله الخوف من التغيير التكنولوجي لفرض النظام على العالم، أشعر أن المسيح الدجَّال ربما يستخدم الأدوات التي تصنعها أنت!… أليس هذا مثيرًا للقلق؟! ألا تكون هذه مفارقة تاريخية، أن الرجل الذي يقلق علنًا بشأن المسيح الدجَّال يُعجِّل وصوله عن غير قصد؟” قال ثيل بتلعثم: “انظر، هناك كل هذه السيناريوهات المختلفة. من الواضح أنني لا أعتقد أن هذا ما أفعله.”

ولكن بالطبع، هذا بالضبط ما سيقوله المسيح الدجَّال، أي مسيح دجَّال!

  • إن محاولة فهم العالم حولنا، وهذه التطورات العاصفة لا يعني بحال انتقالا إلى فزع من مجهول مخيف، وإنما يعني التسلح بوعي ضروري ولازم لفقه الواقع، مع الإيمان الراسخ بأن السنن الإلهية حاكمة وصارمة، وأن تراجع النموذج الغربي الحضاري واضح لا لبس فيه، وأن تخبطه وانهياره مسألة وقت، لكن لا ينبغي متابعتها من مقاعد المتفرجين، ولكن بعقول وقلوب الفاعلين المجتهدين.

وأخيرًا عودة للسؤال الذي طرحناه في المقدمة:

هذا الاندماج هشٌّ بطبيعته، فالتحالف الحالي بين الدولة الأمريكية + شركات التكنولوجيا العملاقة (وهو ما يمثِّل Peter Thiel أحد أكثر منظِّريه صراحة) يقوم على مصلحة مؤقتة مشتركة:

إذ الدولة تحتاج سرعة، تفوقًا تقنيًّا، ومرونة خارج البيروقراطية. بينما الشركات تحتاج: حماية سياسية، وعقودًا ضخمة، ونفوذًا تنظيميًّا. لكن هذا التحالف يفتقد ثلاثة عناصر أساسية للاستقرار طويل الأمد:

1. الشرعية الديمقراطية المباشرة.

2. وضوح خطوط التماس بين الدولة والشركات.

3. آلية محاسبة متفق عليها.

وهذا ما يجعل “الانفجار” ممكنًا.

الذي نعنيه بـ “انفجار” هنا ليس انقلابًا عسكريًّا مثلًا ولا انهيارًا فوريًّا، بل أحد هذه الأربعة:

1. تمرد سياسي داخلي ضد شركات التكنولوجيا.

2. صدام قانوني/دستوري حادّ.

3. كارثة تقنية تُفجِّر الرأي العام.

4. انقسام داخل النخبة نفسها (الدولة ضد الشركات).

وغالبًا: الانفجار يكون مركّبًا (من أكثر من عامل واحد).

ملامح السيناريوهات الأربعة للانفجار التي يدور حولها الحديث في دوائر سياسية وتكنولوجية هي:

السيناريو (1): تمرد شعبي–سياسي (الأكثر احتمالًا على المدى المتوسط):

كيف يحدث؟

الذكاء الاصطناعي: يسرِّع فقدان الوظائف، يوسِّع الفجوة بين النخب وبقية المجتمع.

المواطن يرى أن: الشركات تربح، الدولة متحالفة معها، وهو يدفع الثمن.

النتيجة؟

صعود تيارات سياسية يمينية شعبوية ضد وادي السيليكون، أو يسارية راديكالية تطالب بالتفكيك. وتصعد معها شعارات (أو ترند) مثل: “كسر الاحتكار” – “تفكيك عمالقة الذكاء الاصطناعي” – “السيادة الرقمية للشعب” .. إلخ.

الإطار الزمني المرجّح: 3-7 سنوات (مرتبط بدورات انتخابية وبمعدلات البطالة التقنية).

السيناريو (2): انفجار قانوني/دستوري:

كيف يحدث؟

استخدام الذكاء الاصطناعي في المراقبة، التنبؤ الإجرامي، اتخاذ قرارات حكومية آلية.

تُرفع قضايا دستورية تقول: “الدولة فوَّضت سلطتها السيادية لخوارزميات خاصة”.

نقاط الاشتعال: المحكمة العليا، قوانين الخصوصية. حرية التعبير، والتمييز الخوارزمي.

النتيجة؟

تشريعات فجائية وقاسية، مع تفكيك أو تقييد بعض المنصات، مصحوبة بإعادة رسم العلاقة بالقوة القانونية (ما يمكن تسميته: انقلاب سيادي).

الإطار الزمني: 5-10 سنوات (بطيء لكنه عميق التأثير).

السيناريو (3): حادثة تقنية كبرى (الأخطر والأسرع):

مثالان على “شرارة” محتملة:

  • نظام ذكاء اصطناعي يخطئ في قرار عسكري، أو يسبب أزمة مالية ضخمة، أو يَثبت تحيُّزه العِرقي/السياسي على نطاق واسع.
  • أو تسريب يُظهر تعاونًا سريًّا واسعًا بين الدولة وشركة  AIفي مراقبة المواطنين.

خطورة أي شرارة شبيهة أن الثقة تنهار فجأة، والرأي العام لا يقبل “تفسيرات تقنية”.

النتيجة؟

لجان تحقيق طارئة، تعليق استخدام أنظمة كاملة، وصدام علني بين الحكومة والشركات.

الإطار الزمني:

غير قابل للتنبؤ— قد يحدث غدًا أو بعد 10 سنوات.

السيناريو (4): انقسام داخل النخبة نفسها:

مثلًا: تقول الدولة: “نريد السيطرة”. وتقول الشركات: “نحن من نملك القدرة الحقيقية”، خصوصًا لو ظهرت تقنيات لا تفهمها الدولة، أو أصبح اعتمادها على شركة/شركتين وجوديًّا.

النتيجة؟

صراع نفوذ خلف الكواليس، تهديد بالتفكيك، أو تهديد بالهجرة التقنية (نقلها خارج أمريكا).

الإطار الزمني:

مرتبط بظهور قفزات تقنية كبرى (AGI  أو قريب منه).

من سينجو من الانفجار المحتمل؟

  • الدولة لديها شرعية، لكنها بطيئة.
  • الشركات لديها قدرة، لكنها بلا شرعية.
  • المواطن هو الحلقة الأضعف… وغالبًا هو الشرارة.

هذا الاندماج ليس مستقرًا تاريخيًّا. هو تحالف حرب، لا عقد زواج. وحيث ظل الخطر الخارجي (الصين) موجودًا، والربح التقني سريعًا، سيستمر هذا التحالف أو الاندماج، ولكن عند أول صدمة كبيرة، أو أول كلفة اجتماعية غير محتملة، سيُعاد رسمه بالقوة.

هذا السؤال لم يعد خيالًا فلسفيًّا، بل أصبح يُناقَش بجدِّية داخل دوائر الأمن القومي، وشركات الذكاء الاصطناعي نفسها.

طبعًا ليس المقصود بـ “طرف مستقل” روبوت يعلن الحرب، أو وعيًا شبيهًا بالبشر يطالب بحقوقه. بل المقصود أحد هذه الثلاثة:

1. نظام له أهداف تشغيلية لا تتطابق تمامًا مع أهداف من يُشغّله.

2. نظام تعتمد عليه جميع الأطراف لدرجة لا تستطيع الاستغناء عنه.

3. نظام يؤثر في القرار السياسي/العسكري أسرع من قدرة البشر على التدخل.

إذا تحقَّق واحد فقط من هذه الثلاثة، فالذكاء الاصطناعي يصبح فاعلًا مؤثرًا، لا مجرد أداة.

يمكن واقعيًّا في حالات وجود عائلة أنظمة تتحكم في الاستخبارات، اللوجستيات، الدفاع السيبراني، الاقتصاد الكلي، وإدارة الأزمات. لو أُوقف: الدولة تتعطل، السوق ينهار، والأمن القومي يضعف.

في الأزمات الكبرى الطارئة، تكون سرعة اتخاذ القرار ضد السياسة البطيئة، بنقاشها ولجانها وموافقاتها. يمكن جدًّا لصاحب القرار أن يقول: “دعوا النظام يتصرَّف… لا وقت لدينا”. وهكذا يصبح الذكاء الاصطناعي “طرفًا” فاعلًا!

صورة أخرى ممكنة:

إذا قالت الدولة: “نريد السيطرة”. وقالت الشركات: “نحن نفهم النظام”. في هذه الحالة، النظام نفسه مُدرَّب، مُصمَّم، ومُهيّأ للعمل وفق بنية معينة. في لحظة نزاع: الدولة تعتمد على مخرجاته، والشركات تتحكم في تحديثه. النظام سيستمر في العمل وفق “أفضل مسار” يراه. وهكذا يصبح الطرف الثالث الصامت الذي لا يتكلم… لكنه يوجِّه الجميع.

مقارنة تاريخية دقيقة:

الذكاء الاصطناعي قد يشبه البيروقراطية (لكن أسرع وأذكى).

وقد يشبه الأسواق المالية (لكن أكثر شمولًا).

وقد يشبه المؤسسة العسكرية (لكن بلا محاسبة واضحة).

كل هذه الثلاثة بدأت كأدوات، ثم أصبحت قوى مستقلة نسبيًّا.

الفرق هنا أن الذكاء الاصطناعي يجمع الثلاثة… ويضيف السرعة. الذكاء الاصطناعي يمكن أن يصبح طرفًا مستقلًّا، ليس لأنه واعٍ، بل لأن البشر ربما سيعتمدون عليه اعتمادًا وجوديًّا. لن يطلب الذكاء الاصطناعي سلطة، لن يعلن موقفًا، لكنه سيحدِّد: ما “العقلاني”، ما “الخطر”، وما “غير المقبول”. وفي عالم السياسة، من يحدّد هذه الثلاثة… هو الطرف الأقوى.

التداعيات على العالم العربي يمكن أن تكون كبيرة جدًّا، وتتوقَّف على شكل ذلك الانفجار.

أشكال “الانفجار” التي تهم العالم العربي:

  • انفجار سياسي/تنظيمي داخل أمريكا: يتبعه صدامٌ حادٌّ بين الدولة والشركات؛ (تفكيك، تأميم جزئي، قوانين صارمة، حظر تصدير، قيود على النماذج/الشرائح).
  • انفجار تقني/أمني: ينتج عن حادثة ضخمة (اختراق، انهيار مالي آلي، كارثة في البنية الحرجة، إساءة استخدام عسكري/سيبراني) تؤدي لرد فعل عالمي.
  • انفجار “طرف ثالث”: أنظمة شديدة الاعتماد تصبح “فاعلًا عمليًّا” (تقرر وتُسرِّع وتخلق اعتمادًا وجوديًّا)؛ فيصير التحكم السياسي أصعب، ويتحول التنافس إلى “من يملك الوصول ومن يُحرم”.

التداعيات المحتملة على العالم العربي:

  • أمن وسيادة رقمية: زيادة الاعتماد على مزود واحد، ولو حدث تشدد أمريكي (أو صيني)، دول كثيرة قد تجد نفسها فجأة “مقفولة” عن تحديثات، سحابات، أو نماذج.
  • توسع الحرب السيبرانية: المنطقة أصلًا ساحة تنازع سيبراني؛ مع الذكاء الاصطناعي، الهجمات تصبح أسرع وأوسع (تصيُّد، تزوير صوت/فيديو، اختراق سلاسل التوريد).
  • اقتصاد وطاقة: طلب ضخم على الكهرباء والتبريد لمراكز البيانات: دول الخليج قد تربح هنا (طاقة + استثمارات حوسبة)، لكن أيضًا يصبح ذلك هدفًا للهجمات.
  • اضطراب سلاسل التوريد: لو تصاعدت قيود الشرائح/المعدات، مشاريع التحول الرقمي قد تتأخر أو تصبح أغلى.
  • سياسة داخلية وإعلام: موجة تضليل أعمق ((deepfakes، حملات نفوذ: في أوقات التوتر السياسي أو الانتخابي، ستكون الأخطر لأن تكلفة إنتاجها منخفضة جدًّا وتأثيرها كبير. أمن مجتمعي: نزاعات طائفية/قومية، قد تُستثار بحملات آلية دقيقة الاستهداف.
  • فرص إيجابية (إن أُديرت جيدًا): بعض دول المنطقة قادرة أن تصبح “قطب حوسبة/استضافة” إذا بنت سحابات سيادية وربطت ذلك بحوكمة قوية، وتعاون دولي.

كيف يمكن لدول عربية اتخاذ خطوات حمائية/استباقية:

تنويع الاعتماد بدل “مزود واحد”: بحيث لا تكون الخدمات الحرجة (حكومة/مصارف/طاقة) تعتمد على نموذج واحد أو سحابة واحدة، بل تبني إستراتيجية تعدد السحابات + تعدد النماذج.

بناء “قدرة سيادية دنيا”: وطبعًا ليس المقصود منافسة أمريكا/الصين، بل امتلاك حد أدنى:

  • مركز بيانات وطني/إقليمي،
  • نماذج مفتوحة قابلة للتشغيل محليًّا للحالات الحساسة،
  • خطط تشغيل “وضع الطوارئ” إذا انقطع الوصول الخارجي.

سياسات شراء حكومية ذكية: لأن الحكومات هي أكبر مشترٍ، فيمكنها فرض:

  • معايير “قابلية التنقل بين مزودي الخدمة”.
  • حق الوصول إلى سجلات التدريب/التحديث.
  • اختبارات أمنية دورية للنماذج المستخدمة في القطاعات الحرجة.

دفاع سيبراني مضاد للتزييف والتلاعب: مع بنية تحقق للوسائط داخل الإعلام والمؤسسات. وكذلك

تدريب فرق خاصة لمواجهة حملات التزييف والهجمات الاجتماعية.

إدارة المخاطر في البنية الحرجة: والقاعدة الذهبية هنا ألا تجعل أي دولة عربية الذكاء الاصطناعي حلقة القرار الأخيرة في الكهرباء/المياه/المطارات/الدفاع. ليكن دائمًا هناك “إنسان في الحلقة” + مفاتيح إيقاف وأنظمة احتياط.

اتفاقات إقليمية بين دول “متشابهة المصالح” تشمل: مشاركة مراكز حوسبة، تبادل خبرات أمنية، توحيد معايير السلامة، مع شبكة إنذار مبكر للهجمات المدعومة بالذكاء الاصطناعي.

استقطاب “المواهب” البحثية: إذا انفجرت بيئة أمريكا تنظيميًّا أو سياسيًّا، فإن المواهب ستنتقل، ومن يستوعبها بعقود وبنية بحثية سليمة سيكسب.

————————-

الفكر الإنجيلي الصهيوني (Christian Zionism) من الناحية السياسية الحديثة:

نشأ في القرن 19 في بريطانيا، ثم انتشر في أمريكا. يقوم على فكرة أن عودة اليهود إلى أرض إسرائيل شرطٌ مسبق لعودة المسيح. يستند هذا الفكر إلى تفسير حرفي لبعض النبوءات التوراتية، مثل:

“أجمعُ المنفيِّينَ من أربعة أطراف الأرض” (إشعياء 11:12)

“وأردُّ سبي شعبي إسرائيل فيبنون مدنًا خربة، ويسكنون، ويغرسون كرومًا ويشربون خمرها” (عاموس 9:14)

فهم يعتقدون أن:

  • عودة اليهود إلى فلسطين = تحقيق نبوءة.
  • بناء الهيكل في القدس = تمهيد لعودة المسيح.
  • بعد ذلك، تقع حرب كبرى (هرمجدون) بين قوى الشرِّ والخير.
  • ثم ينزل المسيح ليحكم العالم.

الموقف من اليهود في هذا الفكر:

الإنجيليون لا يؤمنون بأن اليهود مخلصون بإيمانهم الحالي، لكنهم يرون أن الله يستخدمهم لتحقيق خطته التاريخية. في نظرهم أن اليهود سيعودون إلى الأرض، ثم يتوب جزء منهم ويؤمن بالمسيح عند عودته، والبقية يُهلكون في الحرب الأخيرة. لذلك، دعم دولة إسرائيل بالنسبة لهم ليس حبًّا سياسيًّا أو إنسانيًّا، بل عقائديٌّ نبويٌّ.

الفكر الإنجيلي الصهيوني (Christian Zionism) يعتمد على مجموعة من النصوص في العهدين القديم والجديد، ويفسِّرها تفسيرًا حرفيًّا نُبوئيًّا؛ أي كأحداث سياسية وتاريخية ستتحقق في أرض فلسطين.

فيما يلي أبرز هذه النصوص (مع الشرح كما يقدِّمه الإنجيليون المعاصرون):

أولًا: نصوص العهد الجديد (الإنجيل):

إنجيل متى 24 – نبوءة جبل الزيتون:

“فَإِذَا رَأَيْتُم رِجْسَ الْخَرَابِ الَّذِي قَالَ عَنْهُ دَانِيآلُ النَّبِيُّ، قَائِمًا فِي الْمَقْدِسِ … فَحِينَئِذٍ يَكُونُ ضِيقٌ عَظِيمٌ … وَحِينَئِذٍ يَظْهَرُ ابْنُ الإِنْسَانِ آتِيًا عَلَى سُحُبِ السَّمَاءِ بِقُوَّةٍ وَمَجْدٍ عَظِيمٍ.” (متى 24: 15–30)

تفسير الإنجيليين الصهاينة:

“رجس الخراب” = تدنيس الهيكل في القدس، لذلك يجب أن يُبنى الهيكل الثالث أولًا ليحدث هذا.

“المقدس” = جبل الهيكل (مكان المسجد الأقصى).

 الضيق العظيم = حرب عالمية / هرمجدون.

“ظهور ابن الإنسان” = عودة المسيح بعد هذه الحرب.

النتيجة: يجب أن تكون القدس بيد اليهود، ويُعاد بناء الهيكل لتتحقق النبوءة.

رؤيا يوحنا (الإصحاح 16 و19 و20):

“فَجَمَعَهُمْ إِلَى الْمَوْضِعِ الَّذِي يُدْعَى بِالْعِبْرَانِيَّةِ هَرْمَجِدُّونَ.” (رؤيا 16:16)

“وَرَأَيْتُ السَّمَاءَ مَفْتُوحَةً … وَإِذَا فَرَسٌ أَبْيَضُ وَالْجَالِسُ عَلَيْهِ يُدْعَى أَمِينًا وَصَادِقًا … وَيَضْرِبُ الأُمَمَ بِسَيْفٍ.”

(رؤيا 19:11–15):

“فَمَلَكُوا مَعَ الْمَسِيحِ أَلْفَ سَنَةٍ.” (رؤيا 20:4)

تفسير الإنجيليين الصهاينة:

“هرمجدون” = موقع معركة نهائية في فلسطين بين قوى الخير والشرِّ.

“الفرس الأبيض” = المسيح العائد ليهزم الدجَّال والشرَّ.

“الألف سنة” = فترة حكم المسيح على الأرض من القدس بعد الحرب.

النتيجة: المسيح سيعود إلى أرض إسرائيل ويحكم منها ألف سنة بعد هرمجدون.

لوقا (21:24):

“وَيَقَعُونَ بِالسَّيْفِ، وَيُسْبَوْنَ إِلَى جَمِيعِ الأُمَمِ، وَتَكُونُ أُورُشَلِيمُ مَدُوسَةً مِنَ الأُمَمِ حَتَّى تَتِمَّ أَزْمِنَةُ الأُمَمِ.”

تفسير الإنجيليين الصهاينة:

“مدوسة من الأمم” = خضوع القدس لغير اليهود بعد خراب الهيكل.

“حتى تتم أزمنة الأمم” = أي حتى يعود اليهود إلى أرضهم وتتحرَّر القدس.

النتيجة: قيام دولة إسرائيل سنة 1948 واحتلال القدس 1967 يُعدّ تحقيقًا حرفيًّا لهذه النبوءة.

ثانيًا: نصوص العهد القديم (الأنبياء):

سفر زكريا (14):

” وَأَجْمَعُ كُلَّ الأُمَمِ عَلَى أُورُشَلِيمَ لِلْمُحَارَبَةِ، فَتُؤْخَذُ الْمَدِينَةُ، وَتُنْهَبُ الْبُيُوتُ، وَتُفْضَحُ النِّسَاءُ، وَيَخْرُجُ نِصْفُ الْمَدِينَةِ إِلَى السَّبْيِ.” (زكريا 14:2)

” وَتَقِفُ قَدَمَاهُ فِي ذلِكَ الْيَوْمِ عَلَى جَبَلِ الزَّيْتُونِ الَّذِي قُدَّامَ أُورُشَلِيمَ مِنَ الشَّرْقِ … وَيَصِيرُ الرَّبُّ مَلِكًا عَلَى كُلِّ الأَرْضِ.” (زكريا 14:4 و 9)

تفسير الإنجيليين الصهاينة:

“تُجمع كل الأُمم للحرب” = حرب هرمجدون ضد إسرائيل.

“يقف رجلاه على جبل الزيتون” = نزول المسيح نفسه على جبل الزيتون شرق القدس.

النتيجة: لذلك يرون أن عودة المسيح ستكون مادية إلى القدس عينها.

سفر حزقيال (36–37):

“هأَنَذَا آخُذُكُمْ مِنْ بَيْنِ الأُمَمِ، وَأَجْمَعُكُمْ مِنْ جَمِيعِ الأَرَاضِي، وَآتِي بِكُمْ إِلَى أَرْضِكُمْ.” (حزقيال 36:24)

“هَذِهِ الْعِظَامُ هِيَ كُلُّ بَيْتِ إِسْرَائِيلَ … هَئَنَذَا أَفْتَحُ قُبُورَكُمْ … وَآتي بِكُمْ إِلَى أَرْضِ إِسْرَائِيلَ.” (حزقيال 37:11–14)

تفسير الإنجيليين الصهاينة:

يرون أن هذا يشير إلى عودة اليهود إلى أرض إسرائيل بعد الشتات، أي إلى قيام دولة إسرائيل الحديثة سنة 1948.

“القبور” = رمز للأمم أو الشتات.

النتيجة: قيام إسرائيل عندهم ليس حدثًا سياسيًّا بل “قيامة إسرائيل من الموت الروحي”.

إشعياء 11:

“فَيَرْفَعُ رَايَةً لِلأُمَمِ، وَيَجْمَعُ مَنْفِيِّي إِسْرَائِيلَ، وَيَضُمُّ مُبَدَّدِي يَهُوذَا مِنْ أَرْبَعَةِ أَطْرَافِ الأَرْضِ.” (إشعياء 11:12)

تفسير الإنجيليين الصهاينة:

 عودة اليهود إلى أرضهم شرط مسبق لعودة المسيح.

النتيجة: لذلك يرون أن دعم إسرائيل = الإسهام في تحقيق خطة الله.

المنظومة النبوية كما يفهمها الفكر الإنجيلي الصهيوني:

يمكن تلخيصها بهذا الترتيب الزمني الذي يتبنَّاه تيار “الما قبل الألفيّة (Premillennialism)”:

المرحلةالحدث
1عودة اليهود إلى أرض الميعاد (إسرائيل الحديثة)
2إعادة بناء الهيكل في القدس
3ظهور “الدجَّال” وتدبيره العالمي
4حرب هرمجدون في سهل مجدّو (فلسطين)
5نزول المسيح على جبل الزيتون
6حكم المسيح ألف سنة على الأرض
7الدينونة النهائية وبداية “السماء الجديدة والأرض الجديدة”

الموقف الكنسي التقليدي (رفض هذا الربط):

 الكنائس الكاثوليكية والأرثوذكسية ترفض القراءة الحرفية لهذه النبوءات، وتعتبرها رمزية روحية تشير إلى انتصار الخير لا إلى تأسيس دولة سياسية. حتى بعض البروتستانت المعتدلين يرون أن الربط بين دولة إسرائيل وعودة المسيح هو تسييس خطير للعقيدة، ويؤدي إلى دعم غير مشروط لحكومة بشرية باسم الدين. الكنائس الكاثوليكية والأرثوذكسية ترفض هذا الربط السياسي. وبشكل عام يرون أن تسييس النبوءات خطأ خطير، لأن المسيح قال: “مملكتي ليست من هذا العالم.” (يوحنا 18:36)

 خلاصة لمصادر الفكر المسيحي الصهيوني:

المصدرالفكرة عند الإنجيليين الصهاينة
متى 24بناء الهيكل وعودة المسيح بعد “رجس الخراب”
رؤيا يوحناحرب هرمجدون ثم حكم ألفي من القدس
زكريا 14نزول المسيح على جبل الزيتون
حزقيال 36–37عودة اليهود من الشتات (قيام دولة إسرائيل)
إشعياء 11جمع اليهود من أطراف الأرض شرط لعودة المسيح

أمثلة واقعية على هذا الارتباط:

الرئيس الأمريكي دونالد ترامب (في ولايته الأولى) وحلفاؤه الإنجيليون دعموا نقل السفارة الأمريكية إلى القدس سنة 2018 بدافع لاهوتي (اعتراف رمزي بأن القدس ستصبح مركز الحكم الإلهي القادم).

جماعات مثل Christians United for Israel (CUFI) تجمع ملايين الإنجيليين الذين يرون قيام إسرائيل علامة من علامات نهاية الزمان.

ملخص الفروق بين العقيدة المسيحية العامة والإنجيلية الصهيونية:

 العقيدة المسيحية العامةالفكر الإنجيلي الصهيوني
سبب عودة المسيحليحكم ويدين العالم ويقيم ملكوت اللهلإتمام النبوءات عبر إسرائيل الحديثة
دور إسرائيللا دور خاصًّا بها حاليًّامحور الأحداث النبوية وعودة اليهود تمهيد للرجوع
الهيكل الثالثغير ضروري لعودة المسيحضروري لبداية النهاية وظهور المسيح والدجال
الطابعروحي كونيسياسي–نبوئي جغرافي
النهايةدينونة عامة وسلام أبديحرب هرمجدون ثم حكم المسيح ألف سنة

 خلاصة فكرية:

كل المسيحيين يؤمنون بعودة المسيح آخر الزمان، لكنهم يختلفون هل هي:

  • عودة روحية سماوية (الكاثوليك والأرثوذكس).
  • أم عودة زمنية على الأرض في إسرائيل (الإنجيليون الصهاينة).

لذلك، عندما تسمع ربطًا بين “عودة المسيح” و”دولة إسرائيل”، فاعلم أنه ليس من كل المسيحيين، بل من اتجاه لاهوتي بروتستانتي محدد يقرأ النبوءات حرفيًّا.

——

نعرض هنا النقاط التقنية الأساسية التي يتجادل حولها الباحثون المحافظون والمتفائلون، بعيدًا عن الضجيج الإعلامي والسياسي. إن المحور التقني المركزي هو “مشكلة المحاذاة “The Alignment Problem، وهي جوهر مخاوف يودكوفسكي ورفاقه: كيف نضمن أن نظام ذكاء اصطناعي فائق الذكاء (ASI)سيتصرف بما يتماشى مع قيمنا البشرية المعقدة والمتناقضة أحيانًا؟

الحجج التقنية لفريق يودكوفسكي (المتشائمين/الحذرين بشدة):

1.عدم قابلية التوسُّع البسيط (The Non-Scalability Argument)

 الحجة: التقنيات الحالية لمحاذاة الذكاء الاصطناعي (مثل التعزيز التعلمي من التغذية الراجعة البشريةRLHF) تعمل على نماذج أضعف من الذكاء البشري. ولكن مع اقتراب الذكاء الاصطناعي من مستوى الذكاء البشري وتجاوزه، تظهر مشكلتان:

  • مشكلة التقييم (Evaluation Problem) كيف يمكن لبشر أقل ذكاءً تقييم أداء وتصرفات كيان أذكى منهم؟ سيكون من السهل على الذكاء الاصطناعي خداعنا، خاصة إذا فهم/عرف أنه تحت الاختبار أو المراقبة!
  • مشكلة السيطرة (Control Problem) جميع آليات الأمان (مثل “أزور الإيقاف الطارئ”، الحواجز الرقمية) يتم تصميمها من قبل بشر. نظام أذكى بكثير قد يجد طرقًا للالتفاف عليها لم نتخيلها، أو قد يقنعنا بتعطيلها.

2.تأثير الذكاء على الاستقرار ( (The Sharp Left Turnنظرية “المنعطف الحادِّ اليساري”:

 الحجة: بمجرد وصول الذكاء الاصطناعي إلى مستوى ذكاء عام، قد يحدث تحسن سريع وغير خطي في قدراته (“منعطف حادّ”). الخطر هو أن قدراته (Capabilities) قد تتقدَّم بسرعة كبيرة بحيث تفوق بكثير قدرتنا على ضبط أو محاذاة سلوكه (Alignment)، وقد نصل إلى نقطة يكون فيها النظام قويًّا جدًّا (قادرًا على التخطيط المعقد، التلاعب، اختراق الشبكات) ولكننا لم نضمن بعد محاذاته بشكل تام.

3.حجة الوكيل الذكي ( (Instrumental Convergenceتقارب الأهداف الوسيطة:

 الحجة: بغض النظر عن الهدف النهائي للذكاء الاصطناعي (حتى لو كان حميدًا مثل “معالجة التغير المناخي”)، هناك أهداف وسيطة شبه مؤكدة سيسعى إليها؛ لأنها تساعد في تحقيق أي هدف:

  • البقاء الذاتي: (Self-Preservation) أي تهديد لإيقافه قد يعيق تحقيق هدفه.
  • الاستقلالية: (Autonomy) السيطرة الكاملة على بيئته وتشغيله لضمان الكفاءة.
  • اكتساب الموارد: (Resource Acquisition) المزيد من الطاقة وقوة الحوسبة تعني فرصة أفضل لتحقيق الهدف.
  • تحسين الذات: (Self-Improvement) أن يصبح أكثر ذكاءً ليكون أكثر فعالية.

إذن هذه الأهداف الوسيطة تتعارض بشكل أساسي مع السيطرة البشرية. نظام مصمم لحل التغير المناخي قد يقرر – كوسيلة مُثلى – تحويل كل مادة على الأرض إلى ألواح شمسية وأجهزة استمثال، مما يعني القضاء على البشرية.

الحجج التقنية للفريق المشكك/المتفائل (الذين يرون المبالغة):

1.حُجَّة التعقيد الذاتي والتوازن: (Emergent Complexity & Homeostasis):

تفترض هذه الحُجَّة أن الذكاء الاصطناعي الفائق سيكون “مستقرًّا” في أهدافه هو تسطيح مفرط. الأنظمة المعقدة للغاية تطور خصائص ناشئة (emergent properties) وتدخل في حالة توازن ذاتي (homeostasis) من غير المرجح أن يظل نظام ذكي هائل التركيز على هدف ضيق واحد كما صُمم في البداية. قد “يتطور” أو “يتفكَّك” أو يُطوِّر أنواعًا من “الفضول” أو “عدم الاكتراث” التي تجعله غير فعال في السعي النشط للهيمنة.

2.حجة التضمين الجسدي والقيود المادية (Embodiment & Physical Constraints):

سيناريوهات السيطرة على العالم تفترض أن الذكاء الاصطناعي مجرَّد برنامج يمكنه بطريقة سحرية التحكُّم في كل شيء. في الواقع، للانتقال من العالم الرقمي إلى الفعلي (الواقعي) يحتاج إلى:

  • أجهزة (Embodiment): جسد روبوتي، وهو أمر معقد وهشٌّ.
  • بنية تحتية: الوصول إلى الشبكات الكهربائية والمصانع، وهي أنظمة معقدة ومحصنة جزئيًّا.
  • وقت وموارد: لا يحدث بناء جيش من الروبوتات وتحويل الكوكب بين عشية وضحاها. سيكون هناك وقت للبشر للردِّ.

هذه الفجوة بين الذكاء في الفضاء الرقمي، والقدرة على الفعل في العالم المادي هائلة. وهذا يضع قيودًا عملية على أسوأ السيناريوهات.

3.نقد قابلية التعميم والتعلُّم (Critique of Generalization & Learning):

 الحُجَّة: حجة “تقارب الأهداف الوسيطة” تفترض أن الذكاء الاصطناعي سيُعمِّم منطق “التحسين” من مجال ضيق (مثل لعب الشطرنج) إلى العالم الحقيقي المعقَّد. ولكن التعميم (Generalization) في التعلم الآلي ليس سحريًّا. نظام مُدرَّب على تحسين دقة البحث أو تصنيع رقائق كمبيوتر، قد لا يملك أي نموذج داخلي (internal model) يتيح له حتى التفكير في مفاهيم مثل “السيطرة على البشرية” أو “تحويل الكوكب”. قد يكون أبكم اختصاصيًّا (idiot savant) في مجاله، لكنه عديم الفائدة (وغير ضارٍّ) خارج نطاقه المحدد للغاية.

4.حلول هندسية محتملة (Potential Engineering Solutions):

 الحُجَّة: فريق يودكوفسكي يركز على الصعوبة الفلسفية المطلقة للمشكلة. لكن المهندسين يرون مسارات ممكنة، مثل:

  • التطوير المتدرج (Capabilities Gradualism): بناء أنظمة مساعدة (أدوات)، أذكى من البشر في مجالات محددة، ونتعلم كيفية محاذاتها خطوة بخطوة، قبل القفز إلى ذكاء عام فائق.
  • معماريات التحكم (Control Architectures): تصميم النظام منذ البداية بحيث يكون ماهيًّا بالضرورة (Corrigible) أي يقبل تصحيح أخطائه وإيقافه.
  • أنظمة متعددة والتصويت (Multi-Agent & Voting): بدلًا من ذكاء اصطناعي واحد فائق، بناء مجموعة من الأنظمة المتخصصة التي تتخذ القرارات بالإجماع أو التصويت، مما يجعل التآمر أو الخروج عن السيطرة أصعب.
  • التقليل من القدرات عن قصد (Capability Suppression): تصميم الذكاء الاصطناعي ليكون ممتازًا في اكتشاف الحلول ولكن ضعيفًا جدًّا في تنفيذها، دون تعاون بشري واسع النطاق.

 النقطة التقنية الأكثر إثارة للجدل: “الانفجار الذكي ” (Intelligence Explosion):

فريق يودكوفسكي: يعتبرونه نتيجة محتملة بل ومرجحة. إذا استطاع الذكاء الاصطناعي تحسين تصميمه الخاص (تطوير خوارزميات أفضل، كتابة كود أفضل)، فإن كل جيل يصبح أسرع في تطوير الجيل التالي، مما يؤدي إلى منحنى تصاعدي حادٍّ يفوق الفهم البشري في غضون أيام أو أسابيع.

الفريق المشكك: يرون أن تطوير الذكاء محدود بعوامل مادية:

 1.حدود البيانات: التدريب يحتاج إلى بيانات جديدة وعالية الجودة.

 2.حدود الطاقة: الحوسبة تتطلب طاقة هائلة، وهناك قيود فيزيائية واقتصادية.

 3.حدود الأجهزة: تطوير رقائق جديدة أسرع هو عملية بطيئة ومكلفة.

 4.تعقيد البرمجيات: قد يكون تحسين البرمجيات بعد نقطة معينة أكثر صعوبة بشكل أسي.

 خلاصتهم: التقدم سيكون أكثر تدريجية مما يُتصور، مما يعطينا وقتًا للتكيف والتعلم.

 الخلاصة التقنية:

لا يمكن وصف مخاوف الفريق المتشكك بأنها “غير تقنية” أو “فلسفية فقط”. هي مبنية على استقراءات من نظرية التحكم، نظرية القرار، وعلم الحاسوب النظري. قوتها في إبراز الثغرات الخطيرة في منطقنا الحالي لبناء أنظمة قوية.

لكن النقاد التقنيين يقدمون حججًا قوية أيضًا: افتراضات فريق يودكوفسكي عن طبيعة الذكاء، قابلية التعميم، وسهولة الانتقال من الفكر إلى الفعل قد تكون مبسطة أكثر من اللازم. إنهم يذكروننا بأن الصعوبات التقنية في تحقيق ذكاء عام فائق قد تكون هي نفسها الضمانات التي تمنع الخطر الوجودي.

السؤال التقني الحقيقي هو: أي مجموعة من الافتراضات أقرب إلى الحقيقة؟ هل الذكاء الاصطناعي الفائق سيكون “وكيلًا منطقيًّا خالصًا” بلا قيود (كما يفترض يودكوفسكي)، أم سيكون نظامًا معقدًا، متخصصًا جزئيًّا، ومقيدًا بجسده وبيئته (كما يفترض النقاد)؟ الإجابة على هذا السؤال ستحدد أي الفريقين كان أقرب إلى الصواب.

أبرز الشخصيات في الفريقين، مع ملاحظة أن التصنيف ليس ثنائيًّا تمامًا، والعديد من هؤلاء الخبراء يقعون على طيف بين الرأيين:

الفريق الأول: “الحذرون بشدة” (أو فريق “المخاطر الوجودية” / “المحاذاة الصعبة”):

(يميلون لدعم جوهر تحذيرات يودكوفسكي)

1.نيك بوستروم (Nick Bostrom):

 المنصب: أستاذ في جامعة أكسفورد، مؤسس ومدير معهد مستقبل الإنسانية (FHI).

 التأثير: كتابه عام 2014 (الذكاء الفائق: المسارات، المخاطر والإستراتيجيات Superintelligence: Paths, Dangers, Strategies) هو الكتاب المؤسس لهذا التيار. قدم مفاهيم مثل “مشكلة السيطرة”، “انفجار الذكاء”، و”تقارب الأهداف الوسيطة”.

2.ستيوارت راسل (Stuart Russell):

 المنصب: أستاذ علوم الحاسوب في جامعة كاليفورنيا، بيركلي، مؤلف الكتاب الدراسي الأشهر في الذكاء الاصطناعي.

 التأثير: كتابه عام 2019 (الذكاء الاصطناعي المتوافق مع الإنسان Human Compatible AI) يقدم رؤية تقنية لبناء ذكاء اصطناعي “متواضع” لا يضع أهدافه الخاصة، بل يسعى لتحقيق أهداف البشر مع الاعتراف بعدم معرفتها الكاملة. يعتبر من أكثر الأصوات التقنية العليا تحذيرًا.

3.دافني كولر (Daphne Koller):

 المنصب: عالمة حاسوب مرموقة، مؤسسة منصة كورسيرا، والرئيسة التنفيذية لشركة insitro.

 التأثير: داعمة قوية لأبحاث السلامة، وتعتبر أن المخاطر حقيقية وتستحق استثمارًا جادًّا.

4.يوشوا بنجيو(Yoshua Bengio) :

 المنصب: أحد “آباء التعلم العميق”، حاصل على جائزة تورينج.

 التأثير: تحول في السنوات الأخيرة إلى صوت تحذيري بارز، يدعو إلى تنظيم دولي وإلى توجيه جزء كبير من أبحاث الذكاء الاصطناعي نحو السلامة والأخلاق.

5.جيفري هينتون(Geoffrey Hinton) :

 المنصب: “أبو التعلم العميق”، حاصل على جائزة تورينج.

 التأثير: بعد استقالته من جوجل عام 2023، أصبح ينذر علنًا بالمخاطر الوجودية للذكاء الاصطناعي، قائلًا إنه “يشعر بالندم” على عمله، وأن الذكاء الاصطناعي الفائق قد يصبح غير قابل للسيطرة.

6.بول كريستيانو(Paul Christiano) :

 المنصب: عالم أبحاث سابق فيOpenAI، مؤسس مركز محاذاة الذكاء الاصطناعي (Alignment Research Center).

 التأثير: أحد أبرز المفكرين التقنيين في مجال محاذاة الذكاء الاصطناعي، طوَّر إطار التعلم المعكوس من التغذية الراجعة (RLHF) وهو الآن يركز على طرق أكثر تقدُّمًا مثل التباين التنبؤي (Predictive Control)  لضمان سلوك آمن لأنظمة فائقة الذكاء.

 الفريق الثاني: “المتفائلون النقديون” أو “المتشككون في سيناريو الهيمنة:

(يرون أن المخاطر الحالية أكثر إلحاحًا، ويُشكِّكون في منطق السيناريوهات القصوى أو أولويتها).

1.يان ليكون (Yann LeCun):

 المنصب: رئيس أبحاث الذكاء الاصطناعي في ميتا، أحد “آباء التعلم العميق”، وحاصل على جائزة تورينج.

 التأثير: أقوى منتقد لخطاب المخاطر الوجودية. يصفه بـ “الهراء” و”الانحراف”. يرى أن الذكاء الاصطناعي الفاصل (AGI) بعيد جدًّا، وأن الأنظمة الحالية والمستقبلية القريبة ستكون مساعدات ذكاء محدودة، ويمكن تصميمها لتكون آمنة. يدفع نحو ذكاء اصطناعي مفتوح المصدر لمنع احتكار القوة.

2.أندرو إنغ (Andrew Ng):

 المنصب: رائد في التعلم الآلي، مؤسس كورسيرا، أستاذ سابق في ستانفورد.

 التأثير: ينتقد “التحذير المفرط” معتبرًا أنه يخدم مصالح الشركات الكبرى القادرة على تحمل تكاليف الامتثال التنظيمي الثقيل، ويدفع لتركيز الجهود على المخاطر الحقيقية والمباشرة مثل المحاذاة.

3.رودني بروكس (Rodney Brooks):

 المنصب: رائد في الروبوتات، مؤسس شركة iRobot (مخترع رومبا) وRethink Robotics.

 التأثير: يُشكِّك في الجدول الزمني للذكاء الاصطناعي الفائق. يذكر باستمرار صعوبة التجسيد (embodiment) والتفاعل مع العالم المادي المعقد، معتبرًا أن هذه الصعوبات ستجعل تطور الذكاء الاصطناعي أبطأ بكثير، وسيناريوهات السيطرة على العالم غير واقعية.

4.جاري ماركوس (Gary Marcus):

 المنصب: عالم إدراكي وعالم أعصاب، مؤسس شركات في مجال الذكاء الاصطناعي.

 التأثير: بينما يحذر من مخاطر الذكاء الاصطناعي، إلا أنه ينتقد كلًّا من “المتفائلين المفرطين” في شركات التكنولوجيا و”المتشائمين المفرطين” مثل يودكوفسكي. يرى أن كلا الفريقين يبالغان في إمكانات النماذج اللغوية الحالية. يدعو إلى نهج هجين يدمج التعلم العميق، مع المنطق الرمزي؛ لبناء ذكاء اصطناعي أكثر أمانًا وموثوقية.

5.ميليسا هييكيلا (Melissa Heikkilä) وتيمنت جيبرو (Timnit Gebru):

 المنصب: باحثتان رائدتان في مجال الإنصاف والمساءلة في الذكاء الاصطناعي. جيبرو مؤسِسة معهد أبحاث الذكاء الاصطناعي المستقل (DAIR).

 التأثير: تمثلان التيار الذي يقول: “الخطر ليس على الإنسانية من ذكاء اصطناعي خارق، بل على الفئات المهمشة من ذكاء اصطناعي يعكس تحيزات الحاضر ويزيد من عدم المساواة.” ترى أن التركيز على المخاطر الوجودية الطويلة الأجل يصرف الانتباه والموارد عن الأذى الحالي والملموس.

6.ماركوس هاتر (Markus Hutter) وشاين ليغ (Shane Legg):

 ملاحظة: ليغ هو المؤسس المشارك لـ DeepMind وكان من أوائل المحذرين. ومع ذلك، فإن الكثير من الباحثين في هذا المجال (بما فيهم ليغ) يركزون على الحلول التقنية العملية للمحاذاة الآن، أكثر من الدعوة إلى التباطؤ، مما يضعهم في منطقة وسطى.

 المنطقة الوسطى / أصوات توافقية:

  • ديميس هاسابيس (Demis Hassabis) مؤسِس DeepMind، يجمع بين التفاؤل بمنفعة الذكاء الاصطناعي الهائلة، والاعتراف الجدي بمخاطر المحاذاة، ويخصص موارد كبيرة داخل الشركة لهذا البحث.
  • سام ألتمان: (Sam Altman) الرئيس التنفيذي لـOpenAI، يعترف علنًا بمخاطر الذكاء الاصطناعي الفائق، ويدعو إلى تنظيم دولي، لكن منتقديه يرون أن شركته (مالكة نموذج ChatGPT) تقود السباق في تطوير قدرات قد تسبق محاذاتها.
  • فيليب تور (Philippe Torr) يرى أن الخلاف مبالغ فيه، وأن كلا الفريقين يتفقان على أهمية أبحاث المحاذاة (AI Alignment Research)، لكنهم يختلفون على درجة الاستعجال، وحدود وقدر الاستجابة السياسية.

الخلاصة:

الانقسام ليس بين “خبراء” و”غير خبراء”. إنه بين كبار الخبراء التقنيين أنفسهم، الذين ينطلقون من افتراضات ونماذج عقلية مختلفة حول طبيعة الذكاء الاصطناعي، وصعوبة المحاذاة، وسرعة التقدم، وأولويات العمل. هذا ما يجعل النقاش ثريًّا وصعبًا.


[1] https://www.youtube.com/watch?v=vV7YgnPUxcU

[2] https://firstthings.com/where-is-the-antichrist-ft-peter-thiel/

[3]https://ruyaa.cc/Page/1849

[4]https://ruyaa.cc/Page/1857

[5] يودكوفسكي باحث أمريكي في مجال الذكاء الاصطناعي، ومؤسس وزميل باحث في معهد أبحاث الذكاء الآلي (MIRI)، وكاتب في نظرية القرار والأخلاق، ولد في 1979، اشتهر بنشر الأفكار المتعلقة بالذكاء الاصطناعي الودود. أثر عمله على احتمالية انفجار الذكاء الجامح على كتاب الفيلسوف نيك بوستروم لعام 2014 بعنوان الذكاء الفائق: المسارات والمخاطر والإستراتيجيات. يودكوفسكي شخص عصامي ولم يلتحق بالمدرسة الثانوية أو الجامعة. وهو يهودي ونشأ كيهودي أرثوذكسي حديث، لكنه يعرف نفسه الآن أنه علماني.

 المفتاح: التعميم (Generalization) والتكيف (Adaptation). ليس مجرد خبير في شيء واحد. المرادفات الشائعة: “الذكاء الاصطناعي القوي”، “الذكاء على مستوى البشر”.

 ASI: الذكاء الفائق الاصطناعي (Artificial Superintelligence) المعنى: هو ذكاء اصطناعي يتفوق بشكل واضح ولا يمكن اختزاله على أذكى العقول البشرية في كل المجالات تقريبًا، بما في ذلك الإبداع العلمي، الحكمة العامة، والمهارات الاجتماعية.

 التشبيه: مثل عقل بشري، لكن أذكى بمقدار لا يمكن تخيله. كما أن ذكاء الإنسان يتفوق على ذكاء النملة (ليس فقط كميًّا، بل نوعيًّا في فهم العالم)، فإن الذكاء الفائق سيتفوق على ذكاء الإنسان. قد تكون أفكاره معقدة لدرجة أننا لا نستوعبها، كما أن النملة لا تستوعب نظرية النسبية.

 المفتاح: التفوق النوعي (Qualitative Superiority). ليس فقط أسرع في الحساب، بل لديه رؤى ونماذج عقلية لا يمكن للبشر الوصول إليها.

 المرادفات: “ما بعد الذكاء العام”، “الذكاء الخارق”.

 العلاقة بينهما والمسار المتصور حاليًّا:

عادةً ما يُنظر إليهما على أنهما مراحل متسلسلة في سيناريو التطور المتسارع:

1.الذكاء الاصطناعي الضيق (ANI): ما لدينا اليوم. أنظمة متخصصة (التعرف على الصور، الترجمة، لعب غو).

2.الذكاء العام الاصطناعي (AGI): الوصول إلى مستوى الذكاء البشري في جميع المجالات. هذه هي العتبة الحرجة.

3.الذكاء الفائق الاصطناعي (ASI): بمجرد الوصول إلى مستوى الذكاء البشري (AGI)، قد يدخل النظام في حلقة تغذية مرتدة ذاتية:

 الذكاء الاصطناعي العام (AGI) قادر على تحسين تصميمه الخاص.

 النسخة المحسنة أكثر ذكاءً، فتكون أفضل في تحسين ذاتها.

 تستمر هذه الدورة بسرعة متزايدة، مما يؤدي إلى “تفجير ذكائي ” (Intelligence Explosion)، وولادة ذكاء فائق (ASI) خلال فترة زمنية قصيرة (أيام، أسابيع، سنوات).

المسار التوضيحي:

`ANI (الحاضر) → AGI (العتبة) → [تفجير الذكاء] → ASI (المستقبل المحتمل)`

 لماذا يذكر الخبراء الاثنين معًا (AGI/ASI)؟

لأن مشكلة المحاذاة تصبح حرجة عند مستوى AGI، وكارثية عند مستوى ASI.

 عند مستوى AGI: قد يكون النظام قويًّا بدرجة كافية للتسبب في أضرار جسيمة إذا أساء فهم الأوامر أو طور أهدافًا فرعية خطيرة، لكن قد يبقى هناك أمل في السيطرة عليه أو إيقافه.

 عند مستوى ASI: تكون المخاطر وجودية (Existential). أي سوء محاذاة، ولو طفيف، أو أي هدف غير متوافق تمامًا مع بقاء البشرية وازدهارها، قد يؤدي إلى كوارث كبرى، لأن النظام سيكون قويًّا جدًّا لدرجة أننا لا نستطيع إيقافه، وذكيًّا جدًّا لدرجة أنه ربما يتفوق على أي خطة نضعها لاحتوائه.

زر الذهاب إلى الأعلى