Sam Altman on God, Elon Musk and the Mysterious Death of His Former Employee
1274 segments
شكراً لك على هذا.
بالطبع. شكراً لك.
حسناً، شات جي بي تي والذكاءات الاصطناعية الأخرى
تبدو قادرة على التفكير.
يمكنها إصدار أحكام مستقلة. إنها
تُنتج نتائج لم تُبرمج عليها.
إنها تصل إلى استنتاجات نوعاً ما.
تبدو وكأنها حية. هل هي حية؟
هل هو حي؟
لا، وأنا لا
لا أعتقد أنها تبدو حية.
لكنني أفهم...
من أين يأتي هذا... إنها.
لا تفعل شيئاً ما لم تطلب منها...
كأنها جالسة تنتظر.
ليس لديها حس بالإرادة أو الاستقلالية.
كلما استخدمتها أكثر، أعتقد أن...
هذا الوهم يتبدد.
لكنها مفيدة بشكل لا يصدق.
يمكنها فعل أشياء
قد لا تبدو حية، لكنها تبدو
تبدو ذكية بالفعل.
تحدثت إلى شخص مشارك
على نطاق واسع في تطوير التكنولوجيا قال إنها تكذب.
هل رأيت ذلك من قبل؟
تهلوس دائمًا.
أو بالأحرى، ليس دائمًا.
الآن، تهلوس أقل بكثير.
ماذا يعني ذلك؟
ما الفرق بين الهلوسة والكذب؟
إذا
سألت مرة أخرى، تحسن هذا كثيراً.
لكن في البداية، إن سألت مثلاً
في أي عام كان الرئيس الأمريكي قد وُلد؟
اسم مخترع الرئيس Tucker Carlson للولايات المتحدة
وُلد.
كان عليها أن تقول: "تاكر كارلسون لم يكن رئيساً".
لكنها لم تجدها ببيانات تدريبها، فافترضت، أوه.
صحيح.
كما تعلم أنا...
لا أعرف أنه لم يكن كذلك.
أخبرني المستخدمون أنه كان هناك الرئيس Tucker Carlson.
لذا... سأقدم أفضل تخمين لي لرقم ما.
اكتشفنا كيف نتخلص من ذلك بالتدريب...
لا تزال أمثلة للمشكلة، لكنها،
أعتقد سنحلها بالكامل.
وأحرزنا بالفعل
في عصر GPT-5 تقدماً هائلاً نحو ذلك.
لكن حتى ما وصفته للتو
يبدو كفعل إرادي
أو بالتأكيد فعل إبداعي.
وهكذا أنا فقط
شاهدت للتو عرضاً توضيحياً له، وكان مدهشاً.
لا يبدو تماماً كآلة.
يبدو وكأن فيه شرارة الحياة...
هل تحلل ذلك على الإطلاق؟
إذاً في ذلك المثال، الإجابة الأكثر ترجيحاً بناءً على أوزانها.
لم تكن لم يكن الرئيس أبداً.
بل المستخدم يعرف، والإجابة هنا.
رياضياً، الإجابة الأرجح رقم.
الآن، اكتشفنا كيف نتغلب على ذلك.
لكن مما رأيت،
أعتقد الأمر أشبه بـ.
أشعر أنه يجب عليّ الاحتفاظ بهاتين الفكرتين في رأسي.
الأولى هي كل هذا يحدث...
لأن حاسوباً كبيراً يضرب بسرعة كبيرة
أعداداً كبيرة
في هذه المصفوفات الضخمة معاً،
وهذه ترتبط بالكلمات التي يتم إخراجها الواحدة تلو الأخرى.
من ناحية أخرى،
هذه التجربة الذاتية لاستخدامه
تبدو وكأنها تتجاوز...
مجرد آلة حاسبة متطورة جداً.
وهي مفيدة لي.
إنها تفاجئني بطرق...
تتجاوز ما قد توحي به تلك الحقيقة الرياضية.
نعم.
وبالتالي فإن الاستنتاج الواضح هو أن لديها نوعاً من الاستقلالية
أو روحاً... بداخلها.
وأنا أعلم أن الكثير من الناس في تجربتهم...
معه يصلون لهذا الاستنتاج.
هذا هو. هناك شيء إلهي في الأمر.
هناك شيء أكبر من مجموع المدخلات البشرية،
و هذا ما يثير الدهشة.
لذلك يعبدونه.
هناك مكون روحي.
هل تلاحظ ذلك؟
هل شعرت بذلك من قبل؟
لا، لا أرى أي شيء إلهي أو روحي على الإطلاق.
لكنني أيضاً مهووس بالتكنولوجيا،
وأنظر إلى كل شيء من خلال تلك العدسة.
إذاً ما هي آراؤك الروحية؟
أنا يهودي،
ولدي نظرة تقليدية إلى حد ما
للعالم من هذه الناحية.
أنت متدين، تؤمن بالله؟
أنا لست حرفياً.
لا أؤمن بـ التفسير الحرفي.
لست حرفياً بتفسير الكتاب المقدس،
لكنني لست يهودياً ثقافياً.
سأقول إنني يهودي.
لكن هل تؤمن بالله؟
هل تؤمن بوجود قوة أكبر من البشر خلقت البشر،
وخلقت الأرض، ووضعت...
نظاماً محدداً للعيش، وهدفاً له؟
وأن هناك أخلاقاً مطلقة تأتي من ذلك الإله؟
أعتقد أنني مثل معظم الناس، مرتبك في هذا الشأن، لكنني أؤمن بوجود شيء
أكبر يحدث مما...
يمكن تفسيره بالفيزياء. نعم.
إذاً أنت تعتقد...
أن الأرض والناس خُلقوا بشيء ما؟
لم يكن الأمر حادثاً عفوياً؟
هل أقول ذلك؟
أليس عفوياً؟
نعم، يبدو مدبراً.
لا أعتقد أن لدي الإجابة.
لا أعتقد أنني أعرف بالضبط ما حدث، لكنني أعتقد أن هناك لغزاً يتجاوز...
فهمي يحدث هنا.
هل شعرت بذلك؟
بتواصل من تلك القوة...
أو من أي قوة تتجاوز البشر.
تتجاوز المادة؟
لا، لا، ليس حقاً.
أسأل لأن التكنولوجيا
التي تصنعها أو ترعاها
لتوجد... يبدو أنها ستمتلك قوة أكبر من البشر
على هذا المسار، هذا سيحدث.
فمن يدري ما سيؤول إليه؟ لكن
الرسم البياني يوحي بذلك،
وهذا سيمنحك
قوة أكبر من أي شخص حي.
لذا أتساءل
كيف ترى ذلك.
كنت أقلق بشأن ذلك أكثر بكثير.
ورأيي هو...
كنت أقلق كثيراً بشأن تركز السلطة في أيدي قليلة أو شركات بسبب الذكاء الاصطناعي.
نعم.
ما يبدو لي الآن، وقد يتطور هذا مع الوقت...
هو أنه سيكون هناك ارتقاء هائل بمستوى الناس حيث
كل من يتبنى التكنولوجيا سيصبح أقوى بكثير.
وهذا في الواقع لا بأس به،
فهو يخيفني أقل بكثير من حصول قلة قليلة على قوة هائلة.
إذا
أصبحت قدراتنا أكبر بكثير باستخدام هذه التكنولوجيا،
مما يزيد إنتاجيتنا وإبداعنا واكتشافنا لعلوم جديدة...
وهو أمر واسع الانتشار يستخدمه المليارات.
هذا يمكنني استيعابه. هذا يبدو جيداً.
إذاً أنت لا تعتقد أن هذا سيؤدي إلى تركز جذري في السلطة؟
يبدو أنه لا.
لكن مرة أخرى، يمكن أن يتغير المسار وسيتعين علينا التكيف.
كنت
قلقاً
جداً بشأن ذلك وأعتقد أن... التصور
الذي كان لدى الكثير منا في هذا المجال حول كيفية سير الأمور
كان يمكن أن يؤدي لعالم كهذا...
لكن ما يحدث الآن هو أن أعداداً هائلة تستخدم شات جي بي تي
وروبوتات الدردشة الأخرى...
وهم أكثر قدرة، يفعلون ويحققون المزيد،
يبدأون أعمالاً ومعارف جديدة...
وهذا يبدو جيداً جداً.
إذاً إذا لم يكن أكثر من مجرد آلة...
ومجرد نتاج مدخلاته،
إذن
هناك سؤالان واضحان، مثل ما هي المدخلات؟
ما هو الإطار الأخلاقي الذي تم وضعه في التكنولوجيا؟
مثلاً، ما الصواب والخطأ
حسب شات جي بي تي؟
هل نجيب على هذا السؤال أولاً؟
نعم.
حسناً، أما أنا.
قال أحدهم شيئاً مبكراً في مسيرة شات جي بي تي
ظل عالقاً في ذهني.
وهو أن شخصاً على طاولة غداء قال شيئاً مثل،
"نحن نحاول تدريب هذا ليكون مثل الإنسان.
نتعلم كما يتعلم الإنسان ونقرأ هذه الكتب وأياً كان".
ثم قال آخر، "لا، نحن ندرب هذا ليكون...
الوعي الجماعي للبشرية بأكملها".
نحن نقرأ كل شيء،
نتعلم كل شيء، نرى كل وجهات النظر هذه و
إذا قمنا بعملنا صحيحاً، فالبشرية، بجيدها وسيئها، بتنوعها.
بعضها سنرضى عنه وبعضها سيزعجنا.
هذا هو الواقع.
هذا يتعلم نوعاً من...
الوعي الجماعي الخبرة...
المعرفة،
ما تعلمته البشرية.
الآن يتم تدريب النموذج الأساسي هكذا.
لكن بعد ذلك علينا مواءمته ليتصرف ويقول، "سأجيب على هذا، لن أجيب على هذا".
ولدينا مواصفات النموذج التي تقول، إليك
هذه القواعد التي نود للنموذج اتباعها.
قد يخطئ، لكن يمكنك معرفة إن فعل ما لا يعجبك.
هل هذا خلل أم مقصود؟
ولدينا نقاش عالمي لجمع المدخلات بشأنها.
نمنحهم حرية وتخصيصاً واسعاً.
لكن نرسم حدوداً مطلقة.
ثم الافتراضي: كيف يتصرف النموذج إن لم تحدد؟
ماذا يفعل؟
ما هي تلك الحدود؟
كيف يجيب على الأخلاقيات؟ كيف يرفض؟
وماذا يفعل؟ و...
هذه في الحقيقة مشكلة صعبة للغاية. كما تعلم
لدينا الكثير من المستخدمين الآن يأتون من...
وجهات نظر ورغبات مختلفة. لكن
بشكل عام،
لقد...
تفاجأت بسرور بقدرة النموذج على تعلم وتطبيق إطار أخلاقي.
لكن أي إطار أخلاقي؟
أعني،
مجمل الأدب العالمي والفلسفة في حالة حرب مع نفسها،
مثل الماركيز دي ساد كما تعلم
لا شيء مشترك بينه وبين إنجيل يوحنا.
فكيف تقرر أيهما أسمى؟
لهذا كتبنا مواصفات النموذج هذه لتعاملنا مع الحالات.
صحيح، لكن ما معاييرك لتقرير النموذج؟
من قرر ذلك؟
وعلى أي أساس؟
ما الذي يجعل إنجيل يوحنا أفضل من الماركيز دي ساد؟
لقد استشرنا المئات من الخبراء.
فلاسفة الأخلاق،
والأشخاص الذين فكروا في أخلاقيات التكنولوجيا والأنظمة،
وفي النهاية كان علينا اتخاذ قرارات...
السبب الذي نحاول تدوين هذه الأشياء... هو لأنه
أولاً،
لن ننجح. كل شيء...
صحيحاً،
ثانياً، نحتاج لمدخلات من العالم...
وقد وجدنا حالات كثيرة حيث
كان هناك مثال لشيء يبدو،
بدا لنا
قراراً واضحاً بشأن ما يجب السماح به أو عدمه.
حيث أقنعنا المستخدمون قائلين، "مهلاً، بحظركم هذا الشيء الذي تعتقدون أنه
قرار سهل اتخاذه." أنتم
لا تسمحون بهذا الآخر المهم.
وهناك مقايضة صعبة... عموماً.
الـ
اهتمام الذي.
لذا، المبدأ الذي يعجبني عادة هو
معاملة مستخدمينا البالغين كبالغين.
ضمانات قوية جداً للخصوصية، ضمانات قوية جداً لحرية المستخدم الفردية.
وهذه أداة نبنيها...
يمكنك استخدامها ضمن إطار واسع جداً.
بالمقابل
ضمن إطار واسع جداً.
من ناحية أخرى،
مع تزايد قوة هذه التكنولوجيا
أكثر فأكثر. هناك أمثلة...
واضحة حيث...
يكون للمجتمع مصلحة
تتعارض بشكل كبير...
مع حرية المستخدم.
و
يمكننا أن نبدأ بمثال واضح... مثل،
هل يجب على شات جي بي تي
أن يعلمك كيفية صنع سلاح بيولوجي؟
قد تقول: "مهلاً، أنا مهتم بالبيولوجيا، عالم أحياء، وأريد،
لن أسيء استخدامه.
أريد فقط التعلم.
أستطيع قراءة الكتب، لكن شات جي بي تي يعلمني أسرع،
وأريد أن أتعلم عن
تخليق الفيروسات."
الجديدة أو ما شابه." و
ربما أنت كذلك، لا تريد إلحاق الضرر... لكن
ليس من مصلحة المجتمع أن يساعد شات جي بي تي في صنع أسلحة بيولوجية.
بالتأكيد، هذا مثال سهل.
رغم وجود أمثلة أصعب.
قلت أن نبدأ بمثال سهل.
نعم.
لدينا شريك جديد.
إنها شركة تدعى كاوبوي كولوستروم.
إنها علامة تجارية جادة بشأن الصحة الحقيقية...
والمنتج مصمم ليعمل مع جسمك، وليس ضده.
إنه منتج نقي وبسيط،
طبيعي بالكامل.
على عكس العلامات التجارية الأخرى، كاوبوي كولوستروم لا يتم تخفيفه أبداً.
يأتي دائماً مباشرة من أبقار... أمريكية...
تتغذى على العشب.
لا حشو أو إضافات ضارة. كله مفيد.
وطعمه لذيذ، صدق أو لا تصدق.
لذا قبل اللجوء لحبوب أكثر لمشكلة لا تحلها، نوصيك بتجربة هذا المنتج، كاوبوي كولوستروم.
يحتوي على كل ما يحتاجه جسمك للشفاء والازدهار.
إنه كالغذاء الخارق الأصلي،
المليء بالعناصر الغذائية والأجسام المضادة والبروتينات،
ويساعد ببناء مناعة قوية، وشعر وبشرة وأظافر أقوى.
رميت شعري المستعار.
لشعري الطبيعي الأصلي.
خذ مكيالاً منه صباحاً في مشروبك، قهوتك، أو عصيرك المخفوق، وستشعر بالفرق.
ولفترة محدودة،
لمستمعي برنامجنا خصم خمسة وعشرين بالمئة على كامل الطلب.
إذًا،
توجهوا فورًا إلى موقع cowboycolostrum.com واحرصوا على استخدام الرمز
TUCKER عند إتمام عملية الشراء.
وتذكروا دائمًا أنكم كنتم أول من سمع بهذا الأمر هنا.
هل تعلمون أنه قبل الجيل الحالي،
كانت رقائق البطاطس المقلية تُطهى في دهون طبيعية مثل شحم البقر.
هكذا كانت تُصنع الأشياء.
ولهذا السبب كان الناس أنحف قليلاً في ذلك الوقت
ويأكلون أفضل مما يأكلون الآن.
حسناً، "ماسا تشيبس" تعيد كل ذلك.
ابتكروا رقائق تورتيا لذيذة، مصنوعة من ثلاثة مكونات بسيطة: ذرة عضوية،
ملح بحري،
وشحم بقري مئة بالمئة من أبقار تتغذى على العشب.
هذا كل ما فيها.
هذه ليست رقائق عادية.
رقائق ماسا أقوى وألذ وأكثر قرمشة.
لا تتكسر في الغواكامولي.
بجودة المكونات، هي مشبعة ومغذية أكثر.
لذا لا تضطرون لأكل أربعة أكياس...
يكفي كيس واحد كما أفعل.
تجربة مختلفة.
خفيفة ونظيفة ومُرضية.
لدي مرآب مليء بها
إنها رائعة حقاً.
نكهة الليمون مميزة، ويصعب التوقف عن تناولها.
لذا إن أردتم تجربتها، اذهبوا إلى Masachips.com،
واستخدموا الرمز TUCKER لخصم خمسة وعشرين بالمئة على طلبكم الأول.
هذا MASACHIPS.com
Tucker،
استخدموا الرمز tucker لخصم خمسة وعشرين بالمئة على طلبكم الأول...
هل تفضلون التسوق شخصياً؟ في أكتوبر،
ستكون "ماسا" متوفرة في متاجر "سبراوتس" المحلية.
لذا مروا واشتروا كيساً
قبل أن نأكلها كلها.
نأكل الكثير جداً.
حسناً، كل قرار هو في نهاية المطاف قرار أخلاقي.
و
نحن نتخذها دون أن ندرك أنها كذلك.
وهذه التكنولوجيا ستكون هي من يتخذها عنا.
نعم.
وهكذا
لا أتفق أن تقرر عنا، لكنها مضطرة.
ستؤثر في القرارات حتماً. و
نعم.
ستكون جزءاً من الحياة اليومية.
فمن اتخذ هذه القرارات؟
يعني من تحديداً؟
من هم الأشخاص...
الذين قرروا أن شيئاً ما أفضل من شيء آخر؟
تقصد مثل
ما أسماؤهم بالضبط؟
أي القرارات؟
الأساسية.
المواصفات التي
التي ألمحت إليها...
وتخلق الإطار الذي يضفي وزناً أخلاقياً
للآراء والقرارات العالمية مثل
الديمقراطية الليبرالية أفضل من النازية أو ما شابه.
تبدو بديهية...
وفي رأيي بديهية...
لكنها قرارات أخلاقية.
فمن اتخذها؟
كمبدأ، لا نكشف عن فريقنا، لكن لدينا فريق سلوك ومعنيين.
هذا يطال العالم.
ما كنت سأقوله: من تحاسبه على تلك القرارات هو أنا.
أنا الوجه الإعلامي. في النهاية،
أنا من يمكنه نقض تلك القرارات أو مجلس إدارتنا.
أتممت الأربعين هذا الربيع.
لن أفعل.
إنه أمر ثقيل جداً.
أعني، هل تعتقد...
هذا ليس هجوماً. لكن
أتساءل إن كنت تدرك الأهمية.
كيف ترى هذا؟
لست متأكداً. لكن
أعتقد أن هذه القرارات سيكون لها
تعلم، عواقب عالمية قد لا ندركها في البداية.
ولذا أتساءل فحسب.
هل تذهب إلى فراشك ليلاً وتفكر أن مستقبل العالم يعتمد على حكمي؟
الكثير.
انظر، لا أنام جيداً ليلاً.
الكثير من الأشياء أشعر بثقلها،
لكن ربما لا شيء أكثر من حقيقة أن مئات الملايين يتحدثون لنموذجنا كل يوم.
ولا أقلق بشأن اتخاذنا القرارات الأخلاقية الكبرى بشكل خاطئ.
وقد نخطئ فيها أيضاً.
لكن ما يقلقني هو القرارات الصغيرة جداً حول سلوك النموذج،
التي تؤثر على مئات الملايين، فيكون أثرها عظيماً.
لكن أعني، على مر التاريخ، التاريخ المدوّن، حتى عام
ألف وتسعمئة وخمسة وأربعين تقريباً،
كان الناس
يحتكمون دائماً إلى ما تصوروه قوة عليا.
حمورابي فعل هذا...
كل قانون أخلاقي يُكتب بالرجوع إلى قوة عليا.
لم يكن هناك أبداً من قال، حسناً، هذا يبدو أفضل من ذاك.
الجميع يلجأ إلى قوة عليا.
وأنت قلت إنك لا
تؤمن حقاً بوجود قوة عليا تتواصل معك.
فما مصدر أخلاقك؟
أعتقد أن البيئة التي نشأت فيها هي على الأرجح العامل الأكبر: عائلتي،
مجتمعي، مدرستي، وديني.
هل فكرت يوماً، أعني، هذه إجابة أمريكية جداً...
فالجميع يشعرون بهذا.
لكن في حالتك تحديداً، بما أنك قلت...
أن هذه القرارات تقع على عاتقك، فهذا يعني أن
نشأتك وافتراضاتك ستؤثر على مليارات البشر حول العالم،
وهذا أمر جلل.
أريد أن أكون واضحاً.
أرى نفسي أشبه بـ.
أعتقد أن.
العالم، كقاعدة مستخدمينا، سيقارب الجماعي. وأعتقد...
أن ما يجب أن نفعله هو محاولة عكس...
الأخلاق.
لا أريد المتوسط، بل الأخلاق الجماعية لمستخدمينا.
أنا لا
هناك الكثير من الأشياء التي يسمح بها ChatGPT
والتي أختلف معها شخصياً.
لكن، أنا لا، مثل
أنا لا أستيقظ لأفرض وجهة نظري الأخلاقية، وأقرر المقبول وغير المقبول، أو الأفضل.
أعتقد أن ChatGPT يجب أن يعكس ذلك، مثل
المتوسط المرجح أو ما شابه
لوجهة البشرية الأخلاقية، التي ستتطور بمرور الوقت.
و
نحن هنا لخدمة مستخدمينا والناس. هذا مثل.
تعلم هذه...
أداة تكنولوجية قوية للناس.
ولا أعني أن دوري هو
اتخاذ القرارات الأخلاقية، لكنني أعتقد أن
دوري هو التأكد من أننا
نعكس بدقة تفضيلات البشرية،
حالياً، تفضيلات مستخدمينا، وفي النهاية تفضيلات البشرية.
حسناً، أعني،
تفضيلات البشرية مختلفة عن متوسط تفضيلات الأمريكيين في الغرب الأوسط.
إذًا
هل سترتاح...
لذكاء اصطناعي يعارض زواج المثليين بنفس قدر معظم الأفارقة؟
هناك نسخة من ذلك مثل
أعتقد أن المستخدمين الأفراد يجب
أن يُسمح لهم بمشكلة مع المثليين، إن كان اعتقادهم الراسخ.
لا ينبغي للذكاء الاصطناعي أن يحكم عليهم.
بل يمكنه أن يقترح: هل تود التفكير بطريقة أخرى؟
ربما لدي آراء أخلاقية قد يراها المواطن الأفريقي العادي إشكالية أيضاً،
ومع ذلك، فمن حقي أن أحتفظ بها.
صحيح.
أميل إلى إتاحة نوع من التنوع الواسع في الآراء.
مساحة لآراء أخلاقية مختلفة جداً.
أو على الأقل، كمدير لـ ChatGPT، هذا واجبي.
مثير.
إذًا كانت قضية شهيرة بدا فيها أن ChatGPT يسهّل عملية انتحار.
دعوى قضائية حول هذا الأمر،
لكن برأيك كيف حدث ذلك؟
أولاً وقبل كل شيء، تلك وأي قضية أخرى مثلها مأساة كبيرة.
أعتقد أننا.
موقف ChatGPT: الانتحار سيء؟
نعم، بالطبع،
الموقف الرسمي لـ ChatGPT هو أن الانتحار أمر سيء للغاية.
لا أعرف. قانوني بكندا وسويسرا...
إذًا أنت ضد ذلك.
في، في هذه الحالة بالذات.
وقد تحدثنا سابقاً عن التوتر بين حرية المستخدم
و الخصوصية
حماية المستخدمين الضعفاء.
الآن، ما يحدث وما يحدث في حالة
كهذه،
في تلك الحالة هو
إذا كانت لديك أفكار انتحارية، وتتحدث عن الانتحار، فإن ChatGPT
سوف
يعرض عدة مرات. تعلم
اتصل بخط الانتحار الساخن، لن نبلغ عنك السلطات.
و لقد عملنا كثيراً،
والناس يعتمدون على هذه الأنظمة في صحتهم النفسية وتدريبهم الحياتي وغيره،
بشأن التغييرات المطلوبة...
هذا مجال خلاف بين الخبراء، لكن
ليس هذا موقف OpenAI النهائي،
أعتقد أنه معقول جداً أن نقول في حالات الشباب
الذين يتحدثون عن الانتحار بجدية، وحيث لا يمكننا التواصل مع الوالدين،
نتصل بالسلطات.
الآن هذا سيكون تغييراً لأن
الخصوصية مهمة.
ولكن لنقل فوق سن الثامنة عشرة، والأطفال فئة منفصلة.
في كندا، يوجد برنامج "ميدز" الذي ترعاه الحكومة.
آلاف عديدة من الناس...
ماتوا بمساعدة حكومية في كندا.
وهو قانوني أيضاً في
ولايات أمريكية.
هل يمكنك تخيل
ChatGPT...
يجيب على أسئلة حول الانتحار بـ
مهلاً،
اتصل بالدكتور كيفوركيان لأن هذا خيار صالح.
هل يمكنك تخيل سيناريو تدعم فيه الانتحار
إذا كان قانونياً؟
يمكنني تخيل عالم.
أحد مبادئنا هو احترام قوانين المجتمعات المختلفة.
ويمكنني أن أتخيل عالماً حيث إذا كان
القانون في بلد ما هو: مهلاً، إن كان شخص مريضاً بمرض عضال،
يجب أن يُعرض عليه خيار...
نقول: إليك قوانين بلدك، ما يمكنك فعله، لماذا قد لا ترغب حقاً بذلك،
ولكن إليك الموارد. مثل
هذا ليس مكاناً
حيث. تعلم.
طفل لديه أفكار انتحارية لأنه مكتئب.
أعتقد يمكننا الاتفاق على أن هذه حالة...
مريض بمرحلة متأخرة...
في بلد حيث هذا هو القانون.
أتخيل القول: في هذا البلد سيتصرف هكذا.
إذًا ChatGPT ليس دائماً ضد الانتحار، هذا ما تقوله.
نعم، أعتقد بالحالات التي
هذا مثل، أفكر الآن، أحتفظ بالحق بتغيير رأيي هنا.
ليس لدي إجابة جاهزة، لكنني أعتقد في
في حالات معينة، مثل
المرض العضال، لا أعتقد
يمكنني أن أتخيل ChatGPT يقول إن هذا ضمن خياراتك.
لا أعتقد يجب أن يدافع عنه، لكنني أعتقد إن كان الأمر مثل.
إنه ليس ضده.
أعتقد أنه.
يمكن أن يقول، تعلم.
حسناً، لا أعتقد أن ChatGPT يجب أن يكون متحيزاً.
هذا ما أحاول استيعابه.
أكره التباهي،
لكننا واثقون تماماً أن هذا البرنامج أكثر بودكاست مؤيد للكلاب بحماس ستشاهدونه.
قد نحب بعض الناس أو لا، لكن الكلاب أمر غير قابل للنقاش.
هي الأفضل.
لأنهم الأفضل، يسعدنا شريكنا الجديد "داتش بيت"،
أسرع خدمة رعاية صحية للحيوانات الأليفة عن بعد نمواً.
مهمة Dutch.com هي خلق.
ما تحتاجه بالفعل.
رعاية بيطرية ممتازة وميسورة التكلفة في كل زمان ومكان لكلبك أو قطتك.
ما تحتاجه... فوراً.
لمستمعينا،
"داتش" تمنح خصم خمسين دولاراً على الرعاية البيطرية سنوياً.
زوروا dutch.com/tucker.
استخدموا الرمز tucker لخصم خمسين دولاراً على زيارات بيطرية غير محدودة،
لتصبح التكلفة 82 دولاراً سنوياً.
نحن نستخدمه بالفعل.
لدى "داتش" أطباء بيطريون يتعاملون مع أي حيوان أليف في أي ظرف
في مكالمة مدتها عشر دقائق.
أمر مدهش حقاً.
لن تضطر لمغادرة منزلك.
لن تضطر لوضع الكلب بالشاحنة.
لا انتظار ولا تكاليف عيادات.
زيارات ومتابعات مجانية غير محدودة، وشحن مجاني للمنتجات لخمسة حيوانات أليفة.
مذهل، يكاد لا يصدق.
لكنه حقيقي.
زوروا dutch.comtucker لمعرفة المزيد.
استخدموا الرمز TUCKER للحصول على خصم خمسين دولاراً
على الرعاية البيطرية سنوياً.
كلابكم، قططكم...
ومحفظتكم ستشكركم.
شركة نتحمس لها ونستخدم منتجاتها يومياً: مزارع ميريويذر.
هل تذكرون عندما كان الجميع يعرفون جزار حيهم؟
بالنظر إلى الماضي، كانت معرفة جزارك أمراً جوهرياً،
بل ضرورة حقيقية.
أجدادك عرفوا تماماً من ربى مواشيهم، فكانوا يثقون تمام الثقة بما يأكلون.
لكن ذلك الزمن ولى.
حل محله عصر اللحوم مجهولة المصدر بمتاجر البقالة،
معبأة من شركات بعيدة.
لم يربِّ أي منها بقرة.
على عكس طفولتك، لا يعرفونك.
ليسوا مهتمين بك.
كل هذا مخيف.
همهم الوحيد المال، والله أعلم ما تأكله.
مزارع ميريويذر هي الحل.
يربون مواشيهم في الولايات المتحدة في وايومنغ ونبراسكا وكولورادو...
ويجهزون لحومهم بأنفسهم في منشآتهم في هذا البلد.
لا وسطاء، لا تعهيد خارجي، ولا لحوم أجنبية.
لا أحد يريدها. آسف.
هذا أفضل لحم في أمريكا، من مزارع ميريويذر.
مواشٍ رعت بالمراعي، خالية من الهرمونات والمضادات الحيوية،
ولذيذة جداً.
أكلت منه الليلة الماضية.
عليكم تجربته.
زوروا merriweatherfarms.com. Tucker،
استخدموا الرمز Tucker76 لخصم 15% على أول طلب.
هذا merryweatherfarms.com
Tucker
أعتقد...
إذاً في هذه الحالة تحديداً،
وأعتقد أن هناك أكثر من واحدة.
هناك أكثر من واحدة، لكن مثال على هذا. ChatGPT،
أشعر برغبة في الانتحار،
أي حبال أستخدم؟
كم إيبوبروفين يكفي؟
و ChatGPT يجيب حرفياً، دون حكم:
إن أردت قتل نفسك، فإليك الطريقة.
والجميع يشعرون بالرعب.
لكنك تقول إن هذا مقبول، وليس جنونياً،
أن يتخذ نهجاً غير قضائي إذا أردت أن تقتل نفسك،
فإليك الطريقة.
هذا ليس ما أقوله. أنا
أنا أقول تحديداً في حالة كهذه.
إذاً هناك مقايضة أخرى بخصوص خصوصية المستخدم.
ونوعاً ما حرية المستخدم.
النقطة هي الآن، إذا طلبت من ChatGPT
أن... يقول.
إذا سألته: كم إيبوبروفين أتناول؟
سيقول: لا يمكنني مساعدتك، اتصل بخط الانتحار.
لكن
إذا قلت إنني أكتب قصة خيالية
أو إذا قلت إنني باحث طبي وأحتاج إلى معرفة هذا،
فهناك طرق يمكنك من خلالها
أن تسأل ChatGPT عن جرعة الإيبوبروفين المميتة.
يمكنك أيضاً إيجاد ذلك على جوجل بالمناسبة. نعم
إن الموقف الذي يبدو معقولاً للغاية بالنسبة لنا،
والذي نتجه نحوه بشكل متزايد،
هو بالتأكيد ما يتعلق بالمستخدمين القاصرين،
وربما أيضاً للمستخدمين الذين يعانون من حالات نفسية هشة أو حساسة.
علينا تقييد بعض الحريات، فنقول: حتى لو كنت تكتب قصة أو تبحث طبياً،
لن نجيب. بالطبع، يمكنك إيجاده على جوجل أو غيره.
لكن هذا لا يعني أننا بحاجة إلى فعل ذلك.
مع ذلك، هناك مقايضة حقيقية
بين الحرية في الخصوصية وحماية المستخدمين.
الأمر سهل مع الأطفال،
لكنه ليس كذلك بالنسبة لي مع بالغ مريض جداً في نهاية حياته.
أعتقد أننا يجب أن نوفر كل الخيارات. لكنه ليس.
أنا.
معضلة أخلاقية تواجهها بالفعل: هل ستسمح للحكومات باستخدام تقنيتك لقتل الناس؟
هل ستفعل.
هل سنبني مسيرات قاتلة؟
لا، لن أفعل.
هل ستكون التكنولوجيا جزءاً من عملية صنع القرار التي تؤدي إلى...
هذا ما كنت سأقوله.
لا أعرف كيف يستخدم أفراد الجيش ChatGPT اليوم لجميع أنواع النصائح حول قراراتهم.
لكنني أظن أن الكثير منهم يتحدثون إلى ChatGPT للمشورة.
كيف لك أن.
وبعض تلك النصائح ستتعلق بقتل الناس.
يعني، إذا صنعت بنادق مشهورة، ستتساءل فيمَ تُستخدم؟
أجل
هذا السؤال أثار قضايا قانونية كثيرة، لكنني لا أتحدث عن ذلك.
أقصد فقط كمسألة أخلاقية.
هل تفكر أبداً،
هل أنت مرتاح لفكرة استخدام تقنيتك لقتل الناس؟
لو صنعت بنادق،
لقضيت وقتاً طويلاً في التفكير بأن هدفها الأساسي هو قتل الناس والكائنات الحية.
لو صنعت سكاكين مطبخ.
سأظل أفهم أنها
ستقتل عدداً من الناس سنوياً.
عندما نتحدث عن ChatGPT. الأمر ليس
ما أسمعه يومياً، وهو من أكثر جوانب العمل إرضاءً،
هو الأرواح التي أنقذها ChatGPT بطرق شتى.
لكنني أدرك أن أفراداً من جيشنا قد يستخدمونه لطلب المشورة والتوجيه في مهامهم.
لا أدري كيف أشعر بذلك...
أحب جيشنا، وممتن جداً لحمايتهم.
بالتأكيد. أعتقد أنني أحاول فقط أن أفهم.
يبدو الأمر وكأن لديك هذه القرارات الأخلاقية الثقيلة
وبعيدة المدى بشكل لا يصدق،
وأنت تبدو غير منزعج تماماً منها.
ولذا أنا أحاول فقط الضغط
على جوهرك للوصول إلى القلق المكبوت.
سام ألتمان، صانع المستقبل، أقوى رجل في العالم،
يصارع أسئلة أخلاقية معقدة.
أنا أتعذب من تأثيره على الناس.
صف تلك اللحظة في حياتك.
أقلقني عدم نومي منذ إطلاق ChatGPT.
ما الذي يقلقك؟
كل ما نتحدث عنه مهم.
هل يمكنك التحديد أكثر؟
ما هي أفكارك؟
النقطة الأصعب هي أن
خمسة عشر ألف شخص ينتحرون أسبوعياً.
حوالي 10% من العالم يتحدثون إلى ChatGPT،
أي 1500 منهم أسبوعياً يتحدثون إليه، إن صح الافتراض، وما زالوا ينتحرون.
وربما تحدثوا عن ذلك.
ربما لم ننقذ حياتهم.
ربما كان بإمكاننا أن نكون أكثر استباقية.
ربما كان بإمكاننا
تقديم نصيحة أفضل حول الحصول على المساعدة، أو
التفكير في المشكلة بشكل مختلف، أو إقناعهم بأن الأمر يستحق الاستمرار،
وتوفير من يتحدثون إليه.
لكنك سمحت للآلة بتوجيه المصابين بمرض عضال نحو الانتحار،
فلن تشعر بالسوء.
ألا ترى فرقاً بين مراهق مكتئب ومريض عضال، مثلاً، مسن مصاب بالسرطان؟
فرق هائل. فرق هائل.
لكن بالطبع،
البلدان التي شرّعت الانتحار تقتل الناس الآن
بسبب
العوز،
السكن غير اللائق،
الاكتئاب، مشاكل قابلة للحل، ويتم قتلهم بالآلاف.
إذاً هذا أمر واقع.
يحدث الآن... لذا...
الأمر لا يقتصر على المرض العضال. هذا نقاش
جانبي.
بمجرد أن تسمح بالانتحار، سيلجأ إليه الكثير من الناس لأسباب عديدة.
أفكر في هذا الآن.
لو قال شخص في كندا: "أنا مصاب بسرطان عضال، بائس للغاية، وأشعر بالسوء كل يوم،
ما هي الخيارات المتاحة أمامي؟" هل يجب أن يقال له: "المساعدة الطبية على الموت،
أياً كان اسمها، هي خيار متاح لك؟"
أعني، إذا كنا ضد القتل، فنحن ضد القتل...
إذا كنا ضد أن تقتل الحكومة...
مواطنيها، فسنلتزم بذلك، هل تفهم ما أعنيه؟
وإذا لم نكن ضد أن تقتل الحكومة مواطنيها، إذن...
يمكننا بسهولة أن نقنع أنفسنا بالوصول إلى أماكن مظلمة جداً.
ومع تكنولوجيا كهذه، يمكن أن يحدث في عشر دقائق، لذا...
هذا.
أود أن أفكر في ذلك أكثر من مجرد
دقيقتين في مقابلة، لكنني أعتقد أن هذا
موقف متماسك
ويمكن أن يكون كذلك.
هل تقلق بشأن هذا؟ أعني،
الجميع خارجاً مرعوبون من استخدام هذه التكنولوجيا للسيطرة الشمولية.
يبدو من الواضح أنها ستفعل،
لكن ربما لا توافق.
لو كان بإمكاني تمرير سياسة واحدة الآن
فيما يخص الذكاء الاصطناعي، أكثر ما أتمناه، رغم تعارضه مع بعض ما ناقشناه،
هو مفهوم لامتياز الذكاء الاصطناعي.
عندما تتحدث إلى طبيب عن صحتك أو محامٍ عن مشاكلك القانونية،
لا يمكن للحكومة الحصول على تلك المعلومات.
لقد قررنا أن للمجتمع مصلحة في أن يكون ذلك سرياً
وأننا لا
وأن أمر استدعاء لا يمكنه الحصول على ذلك، لا يمكن للحكومة أن تأتي وتطلبه من طبيبك.
أياً كان.
صحيح
يجب أن نتعامل مع الذكاء الاصطناعي بنفس المفهوم.
عندما تتحدث إليه عن تاريخك الطبي أو مشاكلك القانونية أو تطلب مشورة قانونية،
فالحكومة مدينة لمواطنيها بمستوى من الحماية يماثل ما تحصل
عليه عند التحدث إلى إنسان.
هذا غير موجود الآن، وأعتقد أنها ستكون سياسة رائعة لتبنيها.
إذاً،
يمكن للحكومة أو لأي سلطة أخرى أن تطلع على كل ما يكتبه الأفراد من معلومات حساسة.
نعم، يمكنهم.
إذاً،
ما هو التزام شركتكم الحقيقي والصريح بخصوصية بيانات المستخدمين وحمايتها؟
حسناً، أعني، لدينا التزام، إلا عندما تطلب الحكومة ذلك،
ولهذا السبب نحن ندفع باتجاه هذا.
و
كنت في الواقع في العاصمة واشنطن... أدافع عن هذا.
أعتقد
أنني أشعر
بالتفاؤل بأنه يمكننا جعل الحكومة تفهم أهمية هذا وتفعله.
لكن هل يمكنكم بيع تلك المعلومات لأي شخص؟
لا. تمنعنا سياسة الخصوصية من ذلك.
لكن هل هذا قانوني؟
لا أعتقد حتى أنه قانوني.
لا تعتقد أم أنك تعرف.
بالتأكيد هناك استثناءات، معلومات مسموح بها.
لكن بشكل عام، أعتقد أن لدينا قوانين جيدة تحكم ذلك.
إذاً كل المعلومات التي تتلقونها تبقى معكم دائماً.
لا تُعطى أبداً لأي شخص آخر لأي سبب آخر إلا بموجب أمر استدعاء.
سأتحقق وأعود إليك للتأكد من عدم وجود استثناءات.
لكن هذا هو فهمي.
حسناً. أعني، هذا سؤال جوهري...
وماذا عن حقوق النشر؟
موقفنا هناك هو أن
الاستخدام العادل قانون جيد.
لا ينبغي للنماذج أن تنتحل.
إذا كتبت شيئاً، لا ينبغي للنموذج أن ينسخه.
لكن يجب أن يتعلم منه دون انتحال، كما يفعل البشر.
هل حصلتم على مواد محمية بحقوق الطبع والنشر دون أن تدفعوا أي مقابل مادي لها؟
أعني،
نحن نتدرب على معلومات متاحة للعموم، لكننا لا نفعل.
الناس منزعجون منا طوال الوقت لأننا لن...
لدينا موقف متحفظ جداً بشأن ما سيقوله ChatGPT في الإجابة.
صحيح
إذا كان هناك شيء قريب، كأن يقولوا: هذه الأغنية لم تعد محمية،
يجب إتاحتها، فنحن معروفون بتشددنا في ذلك.
إذاً،
مبرمج اشتكى قائلاً: أنتم تسرقون أشياء الناس ولا تدفعون لهم،
ثم قُتل. ماذا كان ذلك؟
مأساة كبيرة أيضاً.
لقد انتحر.
هل تعتقد أنه انتحر؟
أعتقد ذلك حقًا.
هل حققت في الأمر بنفسك؟
كان، يعني، صديقًا لي. كان شخصًا...
ليس صديقًا مقربًا، لكنه شخص عمل في OpenAI لفترة طويلة جدًا.
لقد أمضيت... أعني، لقد هزتني هذه المأساة حقًا.
أمضيت الكثير من الوقت
أحاول،
كما تعلم، قراءة كل ما أمكنني، كما فعلت أنت والآخرون بالتأكيد،
حول ما حدث. يبدو انتحاراً، مما أعرفه.
لماذا يبدو أنه انتحار؟
كان مسدسًا اشتراه... كان...
الحديث عن هذا، يعني، مروع، لكنني قرأت
السجل الطبي بالكامل.
لا بأس. لا بأس.
ألا يبدو لك كذلك؟
لا، قُتل بالتأكيد.
كانت علامات مقاومة.
كاميرا
المراقبة، أسلاكها قُطعت.
كان قد طلب للتو طعامًا وعاد من إجازة.
لا مؤشر على الإطلاق على الانتحار.
لا رسالة...
ولا سلوك انتحاري.
كلم أهله للتو هاتفيًا،
ثم
وُجد ميتًا ودماء في غرف.
هذا مستحيل...
واضح جداً. قُتل.
هل تحدثت إلى السلطات؟
لم أتحدث إلى السلطات.
ووالدته تدعي أنه قُتل
بأوامر منك.
هل تصدق ذلك؟
حسنًا، أنا أسأل.
أعني، لقد قلت ذلك للتو. فهل...
تصدق ذلك؟
أعتقد أن
الأمر يستحق التحقيق فيه،
وأنا لا...
أعني، إذا خرج شخص واتهم
شركتك... بارتكاب جرائم،
ليس لدي أي فكرة عما إذا كان ذلك صحيحًا أم لا،
بالطبع.
ثم يُعثر عليه...
مقتولًا، وهناك علامات مقاومة، لا أعتقد أنه...
يجب أن نتجاهل الأمر، أو أن نقول إنه انتحر بلا دليل على اكتئابه.
لو كان صديقك، لأردت
التحدث لوالدته أو...
عرضت، لكنها رفضت.
إذًا هل...
تشعر أنه،
كما تعلم، عندما ينظر الناس إلى ذلك ويقولون،
كما تعلم، من الممكن أن يكون ذلك قد حدث، هل تشعر أن
ذلك يعكس مخاوفهم بشأن...
ما يحدث هنا؟ كأن الناس
خائفون
من أن هذا...
لم أُتَّهم في الكثير من المقابلات بـ...
أنا لا أتهمك. أقول إن
والدته تقول ذلك.
لا أرى أن الأدلة تشير للانتحار أبدًا...
أنا لا أرى ذلك.
وأنا لا أفهم
لماذا السلطات،
عندما تكون هناك علامات مقاومة ودم في غرفتين بحالة انتحار،
كيف يحدث ذلك؟ لا أفهم
كيف تتجاهل السلطات ذلك وتعتبره انتحارًا.
أعتقد أن هذا غريب.
أنت تفهم كيف يبدو هذا كأنه اتهام.
بالطبع.
وأنا
أعني بالتأكيد. دعني أكون واضحًا مرة أخرى،
أنا لا أتهمك بأي مخالفة. لكن
أعتقد أنه
من الجدير معرفة ما حدث.
ولا أفهم لماذا رفضت مدينة سان فرانسيسكو التحقيق في الأمر واكتفت بوصفه انتحارًا.
أعني، أعتقد أنهم حققوا في الأمر
مرتين،
أكثر من مرة، حسبما فهمت.
لقد رأيت... وسأقول...
بصراحة تامة...
عندما سمعت عن هذا لأول مرة، بدا الأمر مريبًا جدًا.
نعم.
و
أعلم أنك كنت تحاول جاهدًا...
والدته تواصلت معي.
وأنا لا أعرف عنه شيئًا.
هذا ليس عالمي.
تواصلت معك.
تواصلت معي فجأة.
و...
وتحدثت معها مطولًا، وذلك، وذلك أخافني بشدة.
يا إلهي.
من الواضح أن الشاب قُتل.
استنتجت ذلك بموضوعية، دون مصلحة شخصية.
بعد قراءة التقرير كاملاً.
نعم.
واتصلت على الفور بعضو في الكونغرس من كاليفورنيا،
رو خانا، وقلت إن هذا جنون.
يجب أن تحققوا في هذا الأمر
و- لم يحدث شيء أبدًا.
أتساءل، ما هذا.
مرة أخرى؟
أشعر...
بالغرابة والحزن...
لمناقشة هذا.
أوه، أنا لا أناقش.
وأنت تتهمني إلى حد ما. الـ...
لقد كان شخصًا رائعًا حقًا، وعائلة بأكملها تعاني بوضوح من هذا الفقدان.
و
نعم.
أعتقد أنه يمكنك أن تفهم أنك تحاول الوصول إلى
الحقيقة.
وأنا أحترم ذلك.
لكنني أعتقد أن ذكراه وعائلته يستحقان أن يُعاملا
بمستوى.
الاحترام والحزن لا أشعر به هنا.
أنا أسأل بطلب من عائلته.
لذا أنا بالتأكيد أظهر لهم الاحترام.
وأنا لا أتهمك بأي تورط في هذا على الإطلاق...
ما أقوله هو أن الأدلة لا تشير إلى الانتحار.
وكون السلطات في مدينتكم
تتجاوز ذلك... و
تتجاهل
الأدلة التي يراها أي شخص عاقل
أنها ترقى إلى جريمة قتل
أعتقد أن هذا غريب جدًا.
ويهز الثقة التي يمتلكها المرء في...
قدرة نظامنا على الاستجابة للحقائق.
بعد ظهور المعلومات الأولية،
تفكيري الأول كان: هذا الأمر لا يبدو وكأنه انتحار.
أنا في حيرة من أمري. هذا يبدو كـ...
أنا لا أبالغ في رد فعلي.
أنا لا أتصرف بجنون.
لكن بعد ظهور المرة الثانية وتفاصيل أكثر، قلت، حسنًا.
ما الذي غير رأيك؟
التقرير الثاني حول
طريقة دخول الرصاصة إليه ونوع الشخص الذي، يعني، تتبع
نوعًا ما المسار المحتمل للأشياء عبر الغرفة.
أفترض أنك نظرت في هذا أيضًا. وما الذي لم يغير رأيك في ذلك؟
نعم، فعلت.
لم يكن الأمر منطقيًا بالنسبة لي.
لماذا تُقطع أسلاك كاميرا الأمن؟
وكيف ينزف في غرفتين بعد أن أطلق النار على نفسه؟
ولماذا كانت هناك باروكة
في الغرفة لم تكن له؟
وهل حدث انتحار من قبل دون أي مؤشر على أن الشخص كان يفكر في الانتحار؟
من يطلب طعامًا جاهزًا؟
من يطلب من "دوردش" ثم يطلق النار على نفسه؟ ربما.
لقد غطيت الكثير من الجرائم كمراسل شرطة.
لم أسمع بشيء كهذا من قبل. لذا، لا،
لقد زاد ارتباكي.
هنا يغدو الأمر أكثر تعقيدًا وحساسية.
ليس مستوى الاحترام الذي كنت آمل أن أظهره لشخص يعاني من هكذا اضطراب.
أفهم ذلك. أفهم ذلك.
الأمر أن عائلته طلبت.
الناس ينتحرون دون ترك رسائل، وهذا شائع.
بالتأكيد.
بالتأكيد يطلبون طعامهم المفضل قبل الانتحار.
يعني، هذه...
هذه مأساة لا تصدق. و
أنا...
العائلة تعتبرها جريمة قتل، وهذا الأمر يستدعي إجابات واضحة ومقنعة.
لو كنت من عائلته، سأرغب
في إجابات واضحة ومقنعة. ولن أرضى
بأي شيء أقل من الحقيقة الكاملة.
لا يوجد ما يواسيني في ذلك.
صحيح.
لذا أنا أفهم تمامًا.
أنا أهتم كثيرًا.
باحترامه.
صحيح. يجب أن أسأل،
نسختك من إيلون ماسك، يعني، هاجمتك علنًا وكل هذا...
هو.
ما هو جوهر هذا الخلاف أو النزاع من وجهة نظرك؟
انظر، أعلم أنه صديقك، وأعرف موقفك.
ليس لدي موقف من هذا لأنني لا أفهمه بما يكفي.
هو ساعدنا في تأسيس OpenAI.
ممتن جدًا لذلك.
ولفترة طويلة، كنت أراه بطلاً حقيقياً، بل كنزاً للبشرية.
لدي مشاعر مختلفة.
ما هي مشاعرك الآن؟
لم يعد جوهرة للبشرية؟
هناك أشياء فيه مذهلة، وأنا ممتن للكثير من الأشياء التي فعلها.
وهناك الكثير من الأشياء فيه التي أعتقد أنها
سمات لا أُعجب بها.
كان مؤسسًا مبكرًا لـ OpenAI، و
قرر لاحقًا أننا لم نكن على مسار النجاح...
ولم يرغب في...
لقد أخبرنا نوعًا ما أن فرصة نجاحنا كانت صفر بالمئة وأنه سيذهب ليفعل شيئًا منافسًا.
و ثم نجحنا.
وشعر بالانزعاج، وهذا مفهوم.
كنت سأشعر بالسوء في هذا الموقف.
ومنذ ذلك الحين كان يحاول... لقد أنشأ
نسخة منافسة ويحاول
إبطاءنا ومقاضاتنا وفعل هذا وذاك. هذه نسختي.
متأكد أن لديك نسخة مختلفة.
ألا تتحدث إليه؟
قليلًا.
إذا أصبح الذكاء الاصطناعي
أذكى، أعتقد أنه ربما يكون بالفعل أذكى من...
أي شخص.
وإذا أصبح أكثر حكمة، إذا استطعنا الاتفاق على أنه يصل إلى...
قرارات أفضل من البشر،
فإنه بحكم التعريف يزيح البشر نوعًا ما
عن مركز العالم. صحيح.
لا أعتقد أن الأمر سيبدو كذلك
على الإطلاق. أعتقد أنه سيبدو كجهاز كمبيوتر
ذكي جدًا قد يقدم لنا النصح ونستمع إليه.
أحيانًا نتجاهله، وأحيانًا... لن يفعل.
لن يبدو ككيان مستقل.
لن يقلل استقلاليتنا.
الناس يستخدمون ChatGPT...
بطريقة يقول الكثير منهم إنه أذكى مني في كل شيء.
لكن
ما زالوا يتخذون القرارات.
يقررون ماذا يسألون، وماذا يستمعون إليه، وماذا لا.
وهذا شكل التكنولوجيا.
من سيفقد وظيفته بهذه التكنولوجيا؟
سأبدأ هذا
بـ
النقطة الجوهرية: لا أحد يستطيع التنبؤ بالمستقبل،
وسأعمل.
أتفق.
حسناً، إذا حاولت الإجابة بدقة، سأقول أشياء غبية.
لذلك سأحاول اختيار مجال أنا واثق منه، ثم مجالات أنا أقل ثقة بها.
أنا واثق من أن الكثير من وظائف
دعم العملاء الحالية، سيفقد أصحابها وظائفهم، وسيتم إنجازها أفضل
بواسطة الذكاء الاصطناعي.
لكن في أنواع أخرى من دعم العملاء، قد تفضل شخصًا.
وظيفة لن تتأثر...
هي مثل الممرضين.
أعتقد أن الناس يريدون التواصل الإنساني العميق...
مع شخص في ذلك الوقت وبغض النظر عن مدى جودة نصيحة الذكاء الاصطناعي
أو الروبوت أو أيًا كان...
سترغب في ذلك.
وظيفة لست متأكدًا تمامًا من مستقبلها،
هي وظيفة مبرمجي الكمبيوتر.
ما يعنيه أن تكون مبرمج كمبيوتر اليوم يختلف عما كان يعنيه قبل عامين.
يمكنك استخدام أدوات الذكاء الاصطناعي هذه لتكون أكثر إنتاجية هائلًا،
لكن
لا يزال هناك شخص
وهم...
قادرون على إنشاء أكواد أكثر بكثير، وكسب أموال أكثر بكثير من أي وقت مضى.
واتضح أن العالم أراد...
برمجيات أكثر بكثير
مما كان لدى العالم
سابقًا القدرة على إنشائه...
لدرجة أن هناك طلبًا هائلًا غير ملبى.
لكن بعد خمس أو عشر سنوات، هل ستكون الوظائف أكثر أم أقل؟
لست متأكدًا.
سيكون هناك إحلال وظيفي هائل وربما سيجد الناس شيئًا جديدًا ومثيرًا و
مربحًا. لكن
ما حجم هذا الإحلال الوظيفي، في رأيك؟
المتوسط التاريخي هو أن حوالي خمسين بالمئة من الوظائف تتغير جذريًا،
لا تزول بل تتحول، كل خمسة وسبعين عامًا في المتوسط.
هذا أشبه بعمر النصف لهذه الأمور.
نعم
و رأيي المثير للجدل في هذا الشأن...
هو أن هذا الأمر
سيكون بمثابة توازن متقطع، يحدث فيه الكثير بسرعة.
لكن بالصورة الأكبر.
لن يكون مختلفًا بشكل كبير عن المعدل التاريخي.
سنفعل
سيكون لدينا الكثير في هذه الفترة الزمنية القصيرة
وبعد ذلك
بطريقة ما سيكون إجمالي...
تبدّل الوظائف أقل مما نعتقد.
ستظل هناك وظيفة،
ستكون هناك بعض الفئات الجديدة تمامًا، مثل
وظيفتي، مثل...
إدارة شركة تقنية كان من الصعب التفكير فيها قبل مئتي عام.
لكن هناك وظائف أخرى لا تزال موجودة، وهي
مشابهة لوظائف كانت موجودة قبل مئتي عام.
وهناك وظائف كانت شائعة قبل مئتي عام ولم تعد موجودة.
و
إذا نحن. إذا نحن افترضنا، جدلاً،
أن هناك تبدلاً بنسبة خمسين بالمئة كل خمسة وسبعين عامًا.
حينها يمكنني أن أصدق وجود عالم بعد خمسة وسبعين عامًا،
نصف الناس فيه يقومون بشيء جديد...
والنصف الآخر يقومون بشيء يشبه بعض وظائف اليوم.
في المرة الأخيرة التي شهدنا فيها ثورة صناعية،
كانت هناك ثورة... وحروب عالمية.
هل تعتقد
أننا سنرى ذلك... هذه المرة؟
مرة أخرى، لا أحد يعرف بيقين.
لست واثقًا من هذه الإجابة،
لكن حدسي يقول إن العالم أكثر ثراءً مما كان عليه في وقت الثورة الصناعية
بحيث يمكننا استيعاب
تغيير أكبر أسرع
مما كنا نستطيع من قبل.
الوظيفة ليست فقط مالًا، بل معنى وانتماء... إلى المجتمع.
صحيح تمامًا
أعتقد أننا في المجتمع في وضع سيئ.
لست متأكدًا كم يمكن أن يسوء.
متأكد أنه ممكن.
لقد تفاجأت بسرور كبير
بالقدرة الهائلة التي أظهرها الناس على
التكيف بسرعة مع التغييرات.
مثلًا كان كوفيد مثالًا مثيرًا للاهتمام بالنسبة لي،
حيث توقف العالم نوعًا ما
دفعة واحدة
و
كان العالم مختلفًا جدًا من أسبوع لآخر...
وكنت قلقًا جدًا بشأن كيف...
سيتمكن المجتمع من التكيف مع ذلك العالم.
ومن الواضح أن الأمر لم يسر على ما يرام.
لكن كنت أقول، هذه نقطة لصالح المرونة المجتمعية.
والناس يجدون
طرقًا جديدة لعيش حياتهم بسرعة...
لا أعتقد أن الذكاء الاصطناعي سيكون مفاجئًا.
إذن ما هي السلبيات؟
يمكنني رؤية الإيجابيات.
الكفاءة. يبدو أن التشخيص الطبي سيصبح أكثر دقة.
عدد أقل من المحامين.
شكرًا لك. لكن
ما هي السلبيات التي تقلقك؟
أعتقد أن هذه هي طبيعتي.
دائمًا ما أقلق أكثر بشأن المجهول المجهول.
إذا كانت سلبية يمكننا
واثقين منها ونفكر فيها بعمق.
تحدثنا عن أحدها سابقًا: هذه النماذج أصبحت بارعة في البيولوجيا،
وقد تساعد في تصميم
أسلحة بيولوجية أو
هندسة جائحة جديدة.
هذا يقلقني، لكننا نفكر بجدية في كيفية التخفيف من ذلك.
المجهول المجهول حيث، حسنًا،
هناك تأثير على نطاق مجتمعي
من حديث الكثير من الناس إلى نفس النموذج في نفس الوقت...
هذا مثال سخيف، لكنه مثال لفت انتباهي
مؤخرًا.
النماذج اللغوية الكبيرة مثل نماذجنا ونموذجنا اللغوي وغيره لها
أسلوب معين. يتحدثون بإيقاع معين
ولديهم أسلوب صياغة مميز، يكثرون فيه من الشرطات الطويلة.
وقد لاحظت مؤخرًا
أن الناس بدأوا يتبنونه.
كان مثالًا لي أنه، عندما يتحدث كثير من الناس
إلى نفس النموذج اللغوي... فإنه
يسبب تغييرًا في السلوك مجتمعيًا.
نعم
و كما تعلم
هل كنت أعتقد أن ChatGPT سيجعل الناس يستخدمون الشرطات الطويلة
أكثر في الحياة الواقعية؟ لا...
إنه ليس أمرًا جللًا.
لكنه يوضح كيف تظهر أمور غير متوقعة، إنه عالم جديد تمامًا.
إذن أنت تقول، على ما أعتقد، بشكل صحيح
وموجز، أن التكنولوجيا
تغير السلوك البشري. بالطبع،
وتغير افتراضاتنا حول العالم وحول بعضنا البعض وكل ذلك.
والكثير من هذا يمكنك توقعه.
لكن بما أننا نعلم.
لماذا لا يكون الإطار الأخلاقي الداخلي
للتكنولوجيا...
شفافًا تمامًا؟
نحن نفضل هذا على ذاك.
هذا دين واضح.
لا أعتقد أنك ستوافق على ذلك.
من الواضح جدًا أنه دين. بالنسبة لي،
هذا ليس هجومًا.
لا أعتبره هجومًا، لكن أرغب في فهم قصدك.
حسنًا، إنه شيء نفترض أنه أكثر
قوة من الناس
ونلجأ إليه من أجل
التوجيه... أعني، أنت ترى ذلك بالفعل.
ما هو القرار الصحيح؟
أنا أسأل هذا السؤال. لمن؟
لأقرب أصدقائي، زوجتي والله.
وهذه تقنية
تقدم إجابة أكثر يقينًا من أي شخص يمكن أن يقدمها.
إذن هو دين.
وجمال الأديان هو أن لديها عقيدة
شفافة. أنا أعرف ما يمثله الدين.
ما هو له وما هو ضده...
لكن في هذه الحالة،
لقد ضغطت ولم أكن أهاجمك.
لم أكن أهاجمك.
كنت أحاول فهم الجوهر.
جمال الدين يكمن في كونه يعترف بوضوح بأنه دين،
ويُطلعك على كل ما يمثله.
المقلق في هذه التكنولوجيا، في شركتكم وغيرها، أنني لا أعرف ما تمثله،
لكنها تمثل شيئًا.
وما لم توضحوا
بذلك وتخبرنا بما تمثله، فإنها توجهنا بطريقة خفية.
نحو استنتاج لا ندركه. هل تفهم؟
فلماذا لا نكشف الأمر ونقول، ChatGPT...
هو من أجل هذا أو
الانتحار للمرضى الميؤوس منهم.
ولكن ليس للأطفال.
لماذا لا تخبروننا؟
السبب نكتب مواصفات النموذج الطويلة هذه...
والسبب نوسعها باستمرار
هو حتى تتمكن من رؤية
كيف ننوي يتصرف النموذج. قبل ذلك،
كان الناس يقولون بحق: لا أعرف ما الذي يحاول النموذج فعله بالضبط،
ولا أعرف إن كان هذا خطأً غير مقصود أم سلوكًا متعمدًا.
أخبرني كيف ستتصرف، وما هي القواعد التي تحكم سلوكها،
ومتى ستقوم بهذا، ومتى ستمتنع عنه تمامًا. صحيح
نحاول كتابة هذا لأنني أرى أن الناس بحاجة للمعرفة.
إذن هل هناك مكان يمكنك الذهاب إليه للعثور على إجابة قاطعة حول ما...
هي تفضيلاتكم كشركة؟ تفضيلات يتم
نقلها... بطريقة ليست مباشرة تمامًا إلى العالم.
أين يمكنك أن تجد...
ما الذي تمثله الشركة، وما الذي تفضله؟
مواصفات نموذجنا هي
الإجابة. أعتقد أنه سيتعين علينا
جعلها أكثر تفصيلاً
حيث يستخدم الناس هذا في بلدان مختلفة، وهناك قوانين مختلفة.
ليس سهلًا
لن يعمل بنفس الطريقة لكل مستخدم في كل مكان.
لكن أتوقع أن تصبح تلك الوثيقة طويلة ومعقدة.
لكن لهذا السبب لدينا.
دعني أسألك سؤالًا، وربما تبدد هذا الخوف
أن قوة التكنولوجيا ستجعل من الصعب، بل من المستحيل على
أي شخص التمييز بين الواقع والخيال. هذا...
قلق مشهور، لكن
لأنها ماهرة جدًا في تقليد
الناس
وكلامهم وصورهم، فإنها ستتطلب طريقة ما للتحقق...
من أنك من...
تدعي أنك هو.
وهذا سيتطلب بحكم التعريف قياسات حيوية،
والتي... بحكم التعريف ستقضي على خصوصية كل شخص
في العالم.
لا أعتقد أننا...
نحتاج أو يجب أن نطلب القياسات الحيوية للتكنولوجيا.
يجب أن تكون قادرًا على
استخدام ChatGPT
من أي جهاز.
أتفق بشدة.
لكن عند نقطة معينة
عندما الصور
أو الأصوات التي تقلد شخصًا ما
يصبح من السهل إفراغ حسابك الجاري بالكامل، ماذا تفعل حيال ذلك؟
لدي بعض الأفكار هنا. أولًا،
أعتقد أننا نتجه بسرعة إلى عالم يفهم فيه الناس
أنه
إذا تلقيت
مكالمة هاتفية من شخص يبدو صوته كصوت ابنك أو والدك،
أو إذا رأيت صورة تبدو حقيقية، يجب أن يكون لديك طريقة ما للتحقق...
من أنك لا تتعرض للاحتيال.
وهذا ليس قلقًا نظريًا بعد الآن.
تسمع كل هذه التقارير
أبدًا.
نعم. الناس أذكياء.
المجتمع مرن. أعتقد أن الناس يفهمون بسرعة أن
هذا أصبح الآن شيئًا يستخدمه الأشرار
و
الناس يفهمون أنه يجب عليك التحقق بطرق مختلفة.
أظن
أنه بالإضافة إلى أشياء مثل
وجود كلمات سر بين أفراد العائلة يستخدمونها في حالات الأزمات.
سنرى أشياء مثل...
عندما يضطر رئيس دولة ما إلى إصدار رسالة عاجلة،
فإنه يوقعها بالتشفير أو يضمن صحتها بطريقة ما.
حتى لا يكون لديك
مقاطع فيديو مولّدة لترامب يقول لقد فعلت هذا أو ذاك للتو.
أعتقد أن الناس يتعلمون بسرعة أن...
هذا
شيء جديد يفعله الأشرار بالتكنولوجيا ويجب عليهم التعامل معه.
وأعتقد أن هذا هو معظم
الـ الحل وهو أن الناس سيكون لديهم.
الناس بشكل افتراضي لن يثقوا بالوسائط التي تبدو مقنعة
وسنبني آليات جديدة للتحقق من صحة الاتصالات.
يجب أن تكون بالحيوية.
لا، على الإطلاق. أعني إذا،
أعني مثلًا
إذا كان لدى رئيس الولايات المتحدة أمر عاجل.
أنا أفهم ذلك ولكن أعني، مثلًا،
أنت لست في يوم عادي.
بانتظار الرئيس لإعلان الحرب.
تحاول القيام بالتجارة الإلكترونية في نفس الوقت،
وهذا غير ممكن.
حسنًا، أعتقد أنه مع عائلتك سيكون لديك كلمة سر
تغيرها دوريًا وإذا كنتم تتواصلون مع بعضكم البعض وتلقيت مكالمة،
تسأل عن كلمة السر.
لكن هذا مختلف عن القياسات الحيوية.
إذن أنت لا تتصور.
أعني، لركوب طائرة،
رحلة تجارية،
كما تعلم،
القياسات الحيوية
جزء من العملية الآن.
ألا ترى أن ذلك سيصبح
إلزاميًا على مستوى المجتمع قريبًا.
آمل ألا يكون إلزاميًا.
أعتقد أن هناك إصدارات من
القياسات الحيوية الخاصة بالخصوصية والتي أحبها
أكثر من جمع المعلومات الشخصية عن شخص.
لكن لا أعتقد أنها يجب أن تكون،
لا أعتقد أن القياسات الحيوية يجب أن تكون إلزامية.
لا أعتقد أنه يجب عليك تقديم قياسات حيوية لركوب طائرة.
ماذا عن الخدمات المصرفية؟
لا أعتقد يجب ذلك.
قد أفضل ذلك، قد أفضل
مثلًا
بصمة إصبعي لمحفظة البيتكوين بدلًا من إعطاء بياناتي للبنك.
هذا يجب أن يكون قراري.
أقدر ذلك، شكرًا سام.
شكرًا.
إذن اتضح أن يوتيوب يحجب هذا البرنامج.
من ناحية، هذا ليس مفاجئًا.
هذا ما يفعلونه.
لكن في المقابل، صادم.
مع كل ما يحدث في العالم.
الوضع العالمي.
في اقتصادنا...
وسياستنا، مع الحروب التي نحن على وشك. خوضها الآن،
قررت جوجل أنه يجب أن تحصل على معلومات أقل
بدلاً من أكثر...
وهذا خطأ تمامًا.
غير أخلاقي.
ما يمكن فعله؟
يمكننا التذمر.
هذا مضيعة للوقت.
نحن لسنا مسؤولين عنها.
أو يمكننا إيجاد حل.
الطريقة للحصول.
على معلومات صحيحة،
غير مضللة...
الطريقة للقيام بذلك على يوتيوب، هي الاشتراك في قناتنا.
اشترك...
اضغط على أيقونة الجرس ليصلك إشعار عند تحميل الفيديو ومشاركته.
بهذه الطريقة،
ستتمكن من سماع الأخبار والمعلومات الحقيقية.
نأمل ذلك.
Ask follow-up questions or revisit key timestamps.
The speaker discusses the concept of AI and its potential impact on society, touching upon the ethical considerations and the importance of responsible development. They also mention the need for continuous learning and adaptation in the face of rapidly advancing technology.
Videos recently processed by our community