Artwork

Fast Foundations에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Fast Foundations 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
Player FM -팟 캐스트 앱
Player FM 앱으로 오프라인으로 전환하세요!

هل يمكن لروبوتات الدردشة المعتمدة على الذكاء الاصطناعي إنشاء ذكريات زائفة؟

4:46
 
공유
 

Manage episode 439170780 series 3554677
Fast Foundations에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Fast Foundations 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.

يمكن للروبوتات الذكية التسبب في ذكريات خاطئة. هذه هي الحقيقة المثيرة التي يتعمق فيها جيم كارتر في حلقة هذا الأسبوع من برنامج "البداية".

يشارك جيم دراسة رائعة أجرتها MIT وجامعة كاليفورنيا، إيرفين، التي وجدت أن الروبوتات الذكية التي تعمل بالذكاء الاصطناعي يمكن أن تخلق ذكريات خاطئة لدى المستخدمين. تخيل أنك تشهد جريمة ومن ثم تقوم روبوتات الذكاء الاصطناعي بخداعك وتذكيرك بأشياء لم تحدث أبدًا. مرعب، أليس كذلك؟

شملت الدراسة 200 مشارك شاهدوا فيديو صامت لكاميرات المراقبة لعملية سطو مسلح. تم تقسيمهم إلى أربع مجموعات: مجموعة تحكم، استبيان بأسئلة مضللة، روبوت مُعد مسبقاً، وروبوت مولد باستخدام نموذج لغة كبير.

النتائج؟ الروبوت المولد تسبب في تقريبا ثلاث أضعاف عدد الذكريات الخاطئة مقارنة بمجموعة التحكم. وما هو أكثر جنونا أن 36% من ردود المستخدمين لهذا الروبوت المولد كانت مضللة، وهذه الذكريات الخاطئة استمرت لمدة أسبوع على الأقل!

يستكشف جيم سبب كون بعض الأشخاص أكثر عرضة لهذه الذكريات الخاطئة الناتجة عن الذكاء الاصطناعي. تَبَيَّن أن الأشخاص الذين على دراية بالذكاء الاصطناعي ولكن ليس بالروبوتات الذكية أكثر عرضة للخداع. بالإضافة إلى ذلك، فإن المهتمين بالتحقيقات الجريمة يكونون أكثر عرضة، على الأرجح بسبب انخراطهم العالي ومعالجتهم للمعلومات الخاطئة.

إذاً، لماذا "يتخيل" الروبوتات أو تنتج معلومات خاطئة؟ يشرح جيم القيود والتحيزات في تدريب البيانات، والتوفيق الزائد، وطبيعة نماذج اللغة الكبيرة التي تفضل الإجابات المحتملة على الدقة الفعلية. هذه التخيلات يمكن أن تنشر المعلومات الخاطئة، وتقوض الثقة في الذكاء الاصطناعي، وحتى تؤدي إلى مشاكل قانونية.

لكن لا تقلق، لا يتركنا جيم في حالة قلق. يشركنا بخطوات عملية لتقليل هذه المخاطر، مثل تحسين جودة بيانات التدريب، دمج نماذج اللغة بنظم التحقق من المعلومات، وتطوير نظم كشف التخيلات.

هل تريد متابعة أحدث تطورات الذكاء الاصطناعي؟ شارك في مجموعة Fast Foundations على Slack لجيم لمناقشة هذه القضايا الحيوية والعمل نحو تطوير الذكاء الاصطناعي بمسؤولية. توجه إلى fastfoundations.com/slack لتكون جزءًا من النقاش.

تذكر، لدينا القدرة على تشكيل مستقبل الذكاء الاصطناعي، لذا دعونا نستمر في الحوار، بدءاً من كل سؤال.

---

هذه الحلقة والبودكاست بأكمله يتم إنتاجه بقوة الذكاء الاصطناعي (AI) بواسطة المتخصص جيم كارتر. جيم لا يتحدث اللغة العربية! هذا هو البودكاست الخاص به وتجربته، وهو ممتن لدعمكم.

يرجى ترك تقييم بخمس نجوم 🌟🌟🌟🌟🌟 ومشاركته مع صديق.

يقوم بمشاركة ما يبنيه علنًا ويمكنك تعلم كيفية القيام بذلك بنفسك، وشركتك من خلال الانضمام إلى مجتمع Slack الخاص به على https://fastfoundations.com/slack

تواصل وتعرف على المزيد عن جيم على https://jimcarter.me

  continue reading

60 에피소드

Artwork
icon공유
 
Manage episode 439170780 series 3554677
Fast Foundations에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Fast Foundations 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.

يمكن للروبوتات الذكية التسبب في ذكريات خاطئة. هذه هي الحقيقة المثيرة التي يتعمق فيها جيم كارتر في حلقة هذا الأسبوع من برنامج "البداية".

يشارك جيم دراسة رائعة أجرتها MIT وجامعة كاليفورنيا، إيرفين، التي وجدت أن الروبوتات الذكية التي تعمل بالذكاء الاصطناعي يمكن أن تخلق ذكريات خاطئة لدى المستخدمين. تخيل أنك تشهد جريمة ومن ثم تقوم روبوتات الذكاء الاصطناعي بخداعك وتذكيرك بأشياء لم تحدث أبدًا. مرعب، أليس كذلك؟

شملت الدراسة 200 مشارك شاهدوا فيديو صامت لكاميرات المراقبة لعملية سطو مسلح. تم تقسيمهم إلى أربع مجموعات: مجموعة تحكم، استبيان بأسئلة مضللة، روبوت مُعد مسبقاً، وروبوت مولد باستخدام نموذج لغة كبير.

النتائج؟ الروبوت المولد تسبب في تقريبا ثلاث أضعاف عدد الذكريات الخاطئة مقارنة بمجموعة التحكم. وما هو أكثر جنونا أن 36% من ردود المستخدمين لهذا الروبوت المولد كانت مضللة، وهذه الذكريات الخاطئة استمرت لمدة أسبوع على الأقل!

يستكشف جيم سبب كون بعض الأشخاص أكثر عرضة لهذه الذكريات الخاطئة الناتجة عن الذكاء الاصطناعي. تَبَيَّن أن الأشخاص الذين على دراية بالذكاء الاصطناعي ولكن ليس بالروبوتات الذكية أكثر عرضة للخداع. بالإضافة إلى ذلك، فإن المهتمين بالتحقيقات الجريمة يكونون أكثر عرضة، على الأرجح بسبب انخراطهم العالي ومعالجتهم للمعلومات الخاطئة.

إذاً، لماذا "يتخيل" الروبوتات أو تنتج معلومات خاطئة؟ يشرح جيم القيود والتحيزات في تدريب البيانات، والتوفيق الزائد، وطبيعة نماذج اللغة الكبيرة التي تفضل الإجابات المحتملة على الدقة الفعلية. هذه التخيلات يمكن أن تنشر المعلومات الخاطئة، وتقوض الثقة في الذكاء الاصطناعي، وحتى تؤدي إلى مشاكل قانونية.

لكن لا تقلق، لا يتركنا جيم في حالة قلق. يشركنا بخطوات عملية لتقليل هذه المخاطر، مثل تحسين جودة بيانات التدريب، دمج نماذج اللغة بنظم التحقق من المعلومات، وتطوير نظم كشف التخيلات.

هل تريد متابعة أحدث تطورات الذكاء الاصطناعي؟ شارك في مجموعة Fast Foundations على Slack لجيم لمناقشة هذه القضايا الحيوية والعمل نحو تطوير الذكاء الاصطناعي بمسؤولية. توجه إلى fastfoundations.com/slack لتكون جزءًا من النقاش.

تذكر، لدينا القدرة على تشكيل مستقبل الذكاء الاصطناعي، لذا دعونا نستمر في الحوار، بدءاً من كل سؤال.

---

هذه الحلقة والبودكاست بأكمله يتم إنتاجه بقوة الذكاء الاصطناعي (AI) بواسطة المتخصص جيم كارتر. جيم لا يتحدث اللغة العربية! هذا هو البودكاست الخاص به وتجربته، وهو ممتن لدعمكم.

يرجى ترك تقييم بخمس نجوم 🌟🌟🌟🌟🌟 ومشاركته مع صديق.

يقوم بمشاركة ما يبنيه علنًا ويمكنك تعلم كيفية القيام بذلك بنفسك، وشركتك من خلال الانضمام إلى مجتمع Slack الخاص به على https://fastfoundations.com/slack

تواصل وتعرف على المزيد عن جيم على https://jimcarter.me

  continue reading

60 에피소드

모든 에피소드

×
 
Loading …

플레이어 FM에 오신것을 환영합니다!

플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.

 

빠른 참조 가이드

탐색하는 동안 이 프로그램을 들어보세요.
재생