في عام 2019، قدمت كارين هاو، وهي صحفية مخضرمة في MIT Technology Review، قصة إلى رئيس تحريرها حول OpenAI، وهي شركة كانت تعمل إلى حد كبير تحت الرادار في ذلك الوقت. ما تكشف كان رحلة مليئة بالمنعطفات غير المتوقعة، وكشفت عن المدى الذي تباعدت فيه طموحات OpenAI عن أهدافها الأولية.
وطأت قدمي مكاتب OpenAI لأول مرة في 7 أغسطس 2019. استقبلني جريج بروكمان، المدير التقني للشركة في ذلك الوقت، بابتسامة مترددة، معترفًا بأن منح هذا الوصول الواسع النطاق كان غير مسبوق بالنسبة لهم.
في حين أن OpenAI ربما كانت مجهولة نسبيًا لعامة الناس، كنت أنا، بصفتي صحفية تغطي المشهد المتطور باستمرار للذكاء الاصطناعي، أراقب عن كثب تطوراتها.
الأيام الأولى لـ OpenAI والمد والجزر المتغيرة
قبل عام 2019، كانت OpenAI تعتبر إلى حد ما منبوذة في مجتمع أبحاث الذكاء الاصطناعي. قوبل ادعاؤها الجريء بتحقيق الذكاء الاصطناعي العام (AGI) في غضون عقد من الزمان بالتشكيك من قبل الكثيرين. على الرغم من التمويل الكبير، افتقرت الشركة إلى توجيه واضح، وغالبًا ما يُنظر إلى جهودها التسويقية على أنها تبالغ في الترويج لأبحاث يعتبرها خبراء آخرون غير أصلية. ومع ذلك، جذبت OpenAI أيضًا الحسد. بصفتها منظمة غير ربحية، أعلنت أنها لا تهتم بالتسويق التجاري، مما يخلق بيئة فريدة للاستكشاف الفكري خالية من قيود الضغوط المالية.
ومع ذلك، في الأشهر الستة التي سبقت زيارتي، ألمحت سلسلة من التغييرات السريعة إلى تحول كبير في اتجاه OpenAI. كانت العلامة الأولى هي القرار المثير للجدل بحجب GPT-2، على الرغم من نشر قدراته. ثم جاء الإعلان عن تعيين Sam Altman رئيسًا تنفيذيًا، بعد مغادرته Y Combinator (YC)، جنبًا إلى جنب مع إنشاء هيكل “ربح محدود”. وسط هذه التطورات، كشفت OpenAI عن شراكة مع Microsoft، ومنحت عملاق التكنولوجيا الأولوية في تسويق تقنيات OpenAI والاستخدام الحصري لخدمات Microsoft Azure السحابية.
أثار كل من هذه الإعلانات الجدل والتكهنات والاهتمام المتزايد، ووصل إلى ما وراء حدود صناعة التكنولوجيا. مع تطور التغييرات، كان من الصعب فهم أهميتها بشكل كامل. ومع ذلك، كان من الواضح أن OpenAI بدأت في ممارسة تأثير كبير على أبحاث الذكاء الاصطناعي والطريقة التي يفهم بها صانعو السياسات التكنولوجيا. كان من المؤكد أن قرار الانتقال إلى عمل تجاري جزئيًا سيؤدي إلى تداعيات واسعة النطاق في جميع أنحاء الصناعة والحكومة.
في إحدى الليالي، بتشجيع من رئيس تحريري، تواصلت مع Jack Clark، مدير السياسة في OpenAI، الذي تحدثت معه سابقًا. لقد اقترحت ملفًا شخصيًا عن OpenAI، وشعرت أنها لحظة محورية في تاريخ الشركة. ربطني كلارك برئيس الاتصالات، الذي وجه دعوة لإجراء مقابلة مع القيادة والاندماج داخل الشركة لمدة ثلاثة أيام.
داخل OpenAI: المهمة والطموح
انضم إليّ وإلى بروكمان كبير العلماء Ilya Sutskever في غرفة اجتماعات زجاجية. جلسا جنبًا إلى جنب، وكانا يكملان أدوار بعضهما البعض. بدا بروكمان، المبرمج والمطبق، حريصًا على ترك انطباع إيجابي، بينما بدا Sutskever، الباحث والفيلسوف، أكثر استرخاءً وانفصالًا.
بدأت بسؤال عن مهمة OpenAI: ضمان AGI مفيد. لماذا يتم استثمار مليارات في هذه المشكلة على حساب مشاكل أخرى؟
ذكر بروكمان، الخبير في الدفاع عن موقف OpenAI، أن AGI كان ضروريًا لحل المشكلات المعقدة التي تتجاوز القدرات البشرية. واستشهد بتغير المناخ والطب كأمثلة، موضحًا إمكانات AGI لتحليل كميات هائلة من البيانات وتسريع التطورات في هذه المجالات الحاسمة.
وروى تجربة صديق مع اضطراب نادر، مسلطًا الضوء على كيف يمكن لـ AGI تبسيط التشخيص والعلاج من خلال ربط المتخصصين بكفاءة.
ثم سألت عن الفرق بين AGI والذكاء الاصطناعي.
اكتسب AGI، الذي كان مفهومًا متخصصًا ذات يوم، قوة جذب، ويرجع ذلك إلى حد كبير إلى تأثير OpenAI. يشير AGI إلى الذكاء الاصطناعي الافتراضي الذي يطابق أو يتجاوز الذكاء البشري في معظم المهام ذات القيمة الاقتصادية. في حين أن الباحثين قد أحرزوا تقدمًا، استمرت المناقشات حول إمكانية محاكاة الوعي البشري.
من ناحية أخرى، أشار الذكاء الاصطناعي إلى كل من التكنولوجيا الحالية والقدرات المستقبلية القريبة، مما يدل على التطبيقات في التخفيف من تغير المناخ والرعاية الصحية.
وأضاف Sutskever أن AGI يمكن أن يحل التحديات العالمية من خلال تمكين أجهزة الكمبيوتر الذكية من التواصل والعمل معًا بكفاءة أكبر من البشر، وتجاوز مشاكل الحوافز.
قادتني هذه العبارة إلى التساؤل عما إذا كان المقصود من AGI استبدال البشر. أجاب بروكمان أن التكنولوجيا يجب أن تخدم الناس وتضمن “الحرية الاقتصادية” مع الحفاظ على جودة حياتهم.
جادل بروكمان بأن دور OpenAI لم يكن تحديد ما إذا كان سيتم بناء AGI أم لا، بل التأثير على الظروف التي تم إنشاؤه في ظلها. وأكد أن مهمتهم هي ضمان أن يفيد AGI البشرية جمعاء من خلال بنائه وتوزيع فوائده الاقتصادية.
استمرت محادثتنا في دوائر، مع نجاح محدود في الحصول على تفاصيل ملموسة. حاولت اتباع نهج مختلف، وسألت عن الجوانب السلبية المحتملة للتكنولوجيا.
استشهد بروكمان بالتزييف العميق كتطبيق سلبي محتمل.
أثرت التأثير البيئي للذكاء الاصطناعي نفسه.
أقر Sutskever بالمشكلة لكنه جادل بأن AGI يمكن أن يواجه التكلفة البيئية. وأكد على الحاجة إلى مراكز بيانات خضراء.
وتابع سوتسكيفر: “مراكز البيانات هي أكبر مستهلك للطاقة والكهرباء”.
عرضت: “إنها 2 في المائة على مستوى العالم”.
قال بروكمان: “أليس Bitcoin مثل 1 في المائة؟”
سيقول Sutskever لاحقًا: “أعتقد أنه من المرجح تمامًا ألا يستغرق الأمر وقتًا طويلاً حتى يصبح سطح الأرض بأكمله مغطى بمراكز البيانات ومحطات الطاقة.” ستكون هناك “تسونامي من الحوسبة. . . تقريبًا مثل ظاهرة طبيعية.”
لقد تحديتهم بأن OpenAI كانت مقامرة بأنها ستحقق بنجاح AGI مفيدًا لمواجهة ظاهرة الاحتباس الحراري قبل أن يؤدي فعل القيام بذلك إلى تفاقمها.
قال بروكمان على عجل: “الطريقة التي نفكر بها في الأمر هي كما يلي: نحن على منحدر من تقدم الذكاء الاصطناعي. هذا أكبر من OpenAI، أليس كذلك؟ إنه الحقل. وأعتقد أن المجتمع يحصل بالفعل على فائدة منه.”
وقال “في اليوم الذي أعلنا فيه الصفقة”، في إشارة إلى استثمار Microsoft الجديد بقيمة مليار دولار، “ارتفعت القيمة السوقية لشركة Microsoft بمقدار 10 مليارات دولار. يعتقد الناس أن هناك عائدًا إيجابيًا على الاستثمار حتى على التكنولوجيا قصيرة الأجل.”
وهكذا كانت استراتيجية OpenAI بسيطة للغاية، كما أوضح: لمواكبة هذا التقدم.
في وقت لاحق من ذلك اليوم، كرر بروكمان أنه لا أحد يعرف حقًا كيف سيبدو AGI مضيفًا أن مهمتهم كانت المضي قدمًا باستمرار، للكشف عن شكل التكنولوجيا خطوة بخطوة.
وراء الكواليس: الشفافية والرقابة
كان من المقرر في الأصل أن أتناول الغداء مع الموظفين في الكافيتريا، لكن قيل لي إنني بحاجة إلى أن أكون خارج المكتب. سيكون بروكمان مرافقي.
تكرر هذا النمط طوال زيارتي: وصول محدود إلى مناطق معينة، واجتماعات لم أتمكن من حضورها، ونظرة الباحثين إلى رئيس الاتصالات للتأكد من أنهم لا ينتهكون أي سياسات إفصاح. بعد زيارتي، أرسل Jack Clark تحذيرًا صارمًا إلى الموظفين على Slack بعدم التحدث معي بما يتجاوز المحادثات المصرح بها. تلقى حارس الأمن صورتي أيضًا، حتى يتمكنوا من البحث عني إذا ظهرت بشكل غير معتمد في المبنى. تتناقض هذه السلوكيات مع التزام OpenAI بالشفافية، مما يثير تساؤلات حول ما يتم إخفاؤه.
أثناء الغداء وفي الأيام التي تلت ذلك، سألت بروكمان عن دوافعه للمشاركة في تأسيس OpenAI. وذكر أنه أصبح مهووسًا بفكرة تكرار الذكاء البشري بعد ورقة بحثية من Alan Turing. لقد ألهمه. قام بترميز لعبة اختبار Turing ووضعها على الإنترنت، وحصل على حوالي 1500 نقرة. جعله يشعر بالدهشة.قال: “لقد أدركت للتو أن هذا هو نوع الشيء الذي أردت متابعته”.
انضم إلى OpenAI كمؤسس مشارك في عام 2015، مشيرًا إلى أنه سيفعل أي شيء لتحقيق AGI، حتى لو كان ذلك يعني أن يكون عامل نظافة. عندما تزوج بعد أربع سنوات، أقام حفلًا مدنيًا في مكتب OpenAI أمام جدار زهور مخصص مزين بشكل شعار المختبر السداسي. أشرف Sutskever على مراسم الزواج.
قال لي بروكمان: “بشكل أساسي، أريد العمل على AGI لبقية حياتي”.
استفسرت عن دوافعه.
ذكر بروكمان فرص العمل على تكنولوجيا تحويلية خلال حياته. كان يعتقد أنه في وضع فريد لإحداث هذا التحول. قال: “ما يستهويني حقًا هي المشكلات التي لن تتكشف بنفس الطريقة إذا لم أشارك فيها”.
أراد قيادة AGI وتوق إلى الاعتراف بإنجازاته. في عام 2022، أصبح رئيسًا لـ OpenAI.
الربح والمهمة والمنافسة
خلال محادثاتنا، أكد بروكمان أن التغييرات الهيكلية في OpenAI لم تغير مهمتها الأساسية. الهيكل ذو الربح المحدود والمستثمرين الجدد عززوا ذلك. قال: “لقد تمكنا من الحصول على هؤلاء المستثمرين المتوافقين مع المهمة والذين هم على استعداد لإعطاء الأولوية للمهمة على العوائد. هذا شيء مجنون”.
تمتلك OpenAI الآن الموارد اللازمة لتوسيع نطاق نماذجها والبقاء في صدارة المنافسة. قد يؤدي عدم القيام بذلك إلى تقويض مهمتها. كان هذا الافتراض هو الذي أطلق العنان لجميع إجراءات OpenAI وعواقبها بعيدة المدى. لقد وضع مؤقتًا زمنيًا لكل من التطورات البحثية في OpenAI، بناءً على ليس على النطاق الزمني للمداولات الدقيقة ولكن على الوتيرة المتواصلة المطلوبة لعبور خط النهاية قبل أي شخص آخر. لقد برر استهلاك OpenAI لكمية لا يمكن تصورها من الموارد.
أكد بروكمان على أهمية إعادة توزيع فوائد AGI.
سألت عن الأمثلة التاريخية للتكنولوجيات التي نجحت في توزيع الفوائد على الجمهور.
“حسنًا، أعتقد في الواقع أن الأمر - إنه في الواقع أمر مثير للاهتمام أن ننظر حتى إلى الإنترنت كمثال”، قال. وقال بصفته تحذيرًا: “هناك مشاكل أيضًا، أليس كذلك؟”. “في أي وقت لديك شيء تحويلي للغاية، لن يكون من السهل معرفة كيفية تحقيق أقصى قدر من الإيجابية وتقليل السلبية.”
وأضاف: “النار مثال آخر”. “لديها أيضًا بعض العيوب الحقيقية. لذلك علينا أن نكتشف كيفية إبقائها تحت السيطرة وأن يكون لدينا معايير مشتركة.
وتابع: “السيارات مثال جيد”. “لدى الكثير من الناس سيارات، وهي تفيد الكثير من الناس. لديهم بعض العيوب أيضًا. لديهم بعض الآثار الخارجية التي ليست جيدة بالضرورة للعالم”، واختتم بتردد.
“أعتقد أنني أرى - الشيء الذي نريده لـ AGI ليس مختلفًا عن الجوانب الإيجابية للإنترنت، والجوانب الإيجابية للسيارات، والجوانب الإيجابية للنار. ومع ذلك، فإن التنفيذ مختلف تمامًا، لأنه نوع مختلف جدًا من التكنولوجيا.”
تألقت عيناه بفكرة جديدة. “فقط انظر إلى الخدمات. شركات الطاقة وشركات الكهرباء هي كيانات شديدة المركزية توفر أشياء منخفضة التكلفة وعالية الجودة تعمل على تحسين حياة الناس بشكل هادف”.
بدا بروكمان مرة أخرى غير واضح بشأن كيف ستحول OpenAI نفسها إلى أداة مساعدة.
لقد عاد إلى الشيء الوحيد الذي كان يعرفه على وجه اليقين. كانت OpenAI ملتزمة بإعادة توزيع فوائد AGI ومنح الجميع الحرية الاقتصادية. وقال: “نعني ذلك حقًا”.
وقال: “الطريقة التي نفكر بها في الأمر هي: لقد كانت التكنولوجيا حتى الآن شيئًا يرفع جميع القوارب، ولكن لها هذا التأثير الحقيقي المركز”. “يمكن أن يكون AGI أكثر تطرفًا. ماذا لو تم تأمين كل القيمة في مكان واحد؟ هذا هو المسار الذي نسلكه كمجتمع. ولم نر هذا التطرف من قبل. لا أعتقد أن هذا عالم جيد. هذا ليس عالمًا أريد المساعدة في بنائه.”
التداعيات وردود الفعل
في فبراير 2020، نشرت ملفي الشخصي في مجلة MIT Technology Review، وكشفت عن عدم التوافق بين الصورة العامة لـ OpenAI وممارساتها الداخلية. قلت إنه “بمرور الوقت، سمح بمنافسة شرسة وضغط متزايد للحصول على المزيد من التمويل لتقويض المثل العليا التي تأسست عليها وهي الشفافية والانفتاح والتعاون.”
رد Elon Musk بثلاث تغريدات:
“يجب أن تكون OpenAI أكثر انفتاحًا في imo”
وقال: “ليس لدي أي سيطرة ولا أرى OpenAI إلا بشكل محدود للغاية. الثقة في Dario للسلامة ليست عالية”، في إشارة إلى Dario Amodei، مدير الأبحاث.
“يجب تنظيم جميع المنظمات التي تطور الذكاء الاصطناعي المتقدم، بما في ذلك Tesla”
أرسل Altman رسالة بريد إلكتروني إلى موظفي OpenAI.
وكتب عن مقال MIT Technology Review: “في حين أنه ليس كارثيًا بالتأكيد، إلا أنه كان سيئًا بوضوح”.
وكتب أنه “انتقاد عادل”، وأن المقال قد حدد انقطاعًا بين تصور OpenAI وواقعه. واقترح أن يجتمع أمودي وماسك لحل انتقادات ماسك. كتب أنه لتجنب أي شك، فإن عمل أمودي والسلامة على الذكاء الاصطناعي أمران بالغا الأهمية للمهمة. “أعتقد أنه يجب علينا في وقت ما في المستقبل إيجاد طريقة للدفاع علنًا عن فريقنا (ولكن لا نعطي الصحافة المعركة العلنية التي يحبونها الآن).”
بعد هذا المقال، لم تتحدث OpenAI معي مرة أخرى لمدة ثلاث سنوات.