أخر الاخبار

ما هو الذكاء الاصطناعي (Ai)؟ وما هي مصطلحات الذكاء الاصطناعي؟

في هذا المقال، سنتعمق في كيفية فهم مفهوم الذكاء الاصطناعي (Ai)؟ وسنقوم باستعراض أهم المصطلحات الأساسية في مجال الذكاء الاصطناعي (Ai Terminology). بالتأكيد، في ظل عصر التكنولوجيا المتقدمة بشكل غير عادى لقد أصبح من الصعب متابعة تطور الذكاء الاصطناعي والزيادة المستمرة في عدد المصطلحات والمفاهيم العلمية المرتبطة به.


ما هو الذكاء الاصطناعي (Ai)؟ دليل شامل

ما هو الذكاء الاصطناعي (Ai)؟ دليل شامل

على مر التاريخ، شهد مجال الذكاء الاصطناعي فترات من النشاط الكبير والهدوء. وفي الوقت الحالي ومع انتشار النماذج اللغوية الكبيرة يكون أكثر نشاطاً وانتشاراً، ويتم تداول مصطلحات جديدة بشكل مستمر وتدخل إلى اللغة العامة.

ومع ذلك، هناك العديد من الأشخاص الذين يسمعون مصطلح الذكاء الاصطناعي دون أن يفهموه بشكل كافي أو حتى دون أن يسجلوه بعناية. وهناك أيضًا فرق في مستويات الوعي بين الأفراد.

هدفنا من هذا الدليل هو أن يكون مصدرًا مفيدًا لأولئك الذين يتعرفون للمرة الأولى على مفهوم الذكاء الاصطناعي"Ai"، وأيضًا لأولئك الذين يبحثون عن مرجعية أو يسعون لتحديث مفرداتهم في هذا المجال.

سنتعرف الآن على ما هو الذكاء الاصطناعي وأهم وأكثر مصطلحات الذكاء الاصطناعي (Artificial Intelligence Terminology). أذا كنت مهتم بتلك المجال فيجب عليك معرفتها.


ما هو الذكاء الاصطناعي (Ai)؟

ما هو الذكاء الاصطناعي (Ai)؟

الذكاء الاصطناعي هو فرع من علوم الكمبيوتر يهدف إلى إنشاء أنظمة قادرة على أداء المهام التي تتطلب عادةً ذكاءً بشرياً مثل الإدراك والاستدلال والتعلم واتخاذ القرار¹².

الذكاء الاصطناعي هو مجال متعدد التخصصات يجمع بين علوم الكمبيوتر والرياضيات والإحصاء ومختلف التخصصات الأخرى لتطوير الخوارزميات والنماذج التي تمكن الآلات من التعلم والتفكير والتنبؤ. وهو يدور حول تطوير عملاء أذكياء يمكنهم الإدراك وفهم السياق واتخاذ الإجراءات المناسبة لتحقيق أهداف محددة.

يرتبط مفهوم الذكاء الاصطناعي بالذكاء المرتبط بالأجهزة الرقمية أو الإلكترونية مثل الكمبيوتر، الأجهزة الخلوية أو الروبوتات¹. يعبر الذكاء الاصطناعي عن قدرة هذه الأجهزة الرقمية على أداء المهمات المرتبطة بالكائنات الذكية¹.

ينطبق مصطلح الذكاء الاصطناعي على الأنظمة التي تتمتع بالعمليات الفكرية للإنسان مثل القدرة على التفكير، واكتشاف المعنى والتعلم من التجارب السابقة¹.

ومن الأمثلة على العمليات التي تؤديها الأجهزة الرقمية والتي تعود لوجود الذكاء الاصطناعي؛ اكتشاف البراهين للنظريات الرياضية، ولعب الشطرنج، والتشخيص الطبي، ومحركات البحث على الشبكة، والتعرف على الصوت أو خط اليد¹.

يُستخدَم الذكاء الاصطناعي في مجموعة واسعة من التطبيقات من المساعدين الشخصيين الافتراضيين وروبوتات المحادثة إلى السيارات ذاتية القيادة وأنظمة التشخيص الطبي². لذلك يعدُّ مستقبل الذكاء الاصطناعي حافلاً ويحمل آفاقاً جديدة².



ما هي أنواع الذكاء الاصطناعي (Ai)؟

يمكن تصنيف الذكاء الاصطناعي إلى أربع فئات رئيسية:
  1. الذكاء الاصطناعي التفاعلي (Reactive Machines): هذا النوع من الذكاء الاصطناعي يعتمد على ردات الفعل لطرف المقابل ويتصرف وفقًا لها.
  2. الذكاء الاصطناعي المرتبط بالذاكرة المحدودة (Limited Memory): هذا النوع يتعلم من تجارب سابقة ويستخدم هذه المعرفة للتعامل مع المواقف الحالية.
  3. الذكاء الاصطناعي (نظرية العقل - Theory of Mind): هذا النوع يشير إلى الذكاء الاصطناعي الذي يمتلك فهمًا للعقل ويمكنه فهم الآخرين.
  4. الذكاء الاصطناعي المرتبط بالإدراك الذاتي (Self-Aware): هذا النوع من الذكاء الاصطناعي يمتلك القدرة على الوعي بذاته ويمكنه التعرف على مشاعره وحالته الداخلية.
هذه الأنواع تعتبر كطيف تدريجي، حيث يعتمد كل نوع على مدى تعقيد النوع الذي يسبقه. وهناك أنواع أخرى من الذكاء الاصطناعي، ولكل منها قدراته وقيوده الخاصة. بعض تلك الأنواع الأكثر شيوعًا:
  • الذكاء الاصطناعي الضيق: يُعرف أيضًا باسم الذكاء الاصطناعي الضعيف، وقد تم تصميم هذا النوع من الذكاء الاصطناعي لأداء مهام محددة ضمن نطاق محدود. تشمل الأمثلة المساعدين الافتراضيين مثل Siri وAlexa وGoogle Assistant، بالإضافة إلى أنظمة التوصية ومرشحات البريد العشوائي والسيارات ذاتية القيادة. يتم تدريب الذكاء الاصطناعي الضيق على التفوق في مجال معين ولكنه يفتقر إلى القدرة على التعميم بما يتجاوز المهمة المحددة التي تم تدريبه عليها.
  • الذكاء الاصطناعي العام: غالبًا ما يشار إليه باسم الذكاء الاصطناعي القوي، ويهدف الذكاء الاصطناعي العام إلى إظهار نفس مستوى الذكاء الذي يتمتع به الإنسان عبر مختلف المجالات والمهام. ومع ذلك، لا يزال هذا المستوى من الذكاء الاصطناعي افتراضيًا ويظل في الغالب في عالم الخيال العلمي. إن تحقيق الذكاء الاصطناعي العام يتطلب أن تمتلك الآلات ليس القدرات المعرفية فحسب، بل أيضا الوعي والوعي الذاتي والتفكير السليم.
  • التعلم الآلي: التعلم الآلي (ML) هو مجال فرعي من الذكاء الاصطناعي يركز على تطوير الخوارزميات والنماذج التي تسمح للآلات بالتعلم من البيانات وإجراء تنبؤات أو قرارات دقيقة دون برمجتها بشكل صريح. تتيح تقنيات التعلم الآلي للآلات تحسين أدائها بمرور الوقت من خلال الخبرة. التعلم الخاضع للإشراف، والتعلم غير الخاضع للإشراف، والتعلم المعزز.


ما هي تطبيقات الذكاء الاصطناعي (Ai)؟

تطبيقات الذكاء الاصطناعي متعددة ومتنوعة، وتشمل العديد من المجالات مثل الرعاية الصحية، التعليم، التسويق، والأعمال. في الرعاية الصحية، يمكن استخدام الذكاء الاصطناعي لتحليل البيانات الطبية وتوقع الأمراض.

وفي التعليم، يمكن استخدامه لتطوير برامج تعليمية شخصية . يمكن للذكاء الاصطناعي تحليل كميات هائلة من البيانات لتقديم تنبؤات ورؤى.

فيما يلي بعض الأمثلة على كيفية قيام الذكاء الاصطناعي بتحويل القطاعات المختلفة:
  1. الرعاية الصحية: يتم استخدام الذكاء الاصطناعي لتحليل بيانات التصوير الطبي وتحديد الأنماط ومساعدة الأطباء في تشخيص أمراض مثل السرطان. كما أنه يلعب دورًا حاسمًا في اكتشاف الأدوية، وتسلسل الجينات، والطب الشخصي.
  2. الشؤون المالية: تُستخدم خوارزميات الذكاء الاصطناعي في اكتشاف الاحتيال وتسجيل الائتمان والتداول الخوارزمي. كما يعمل المساعدون الافتراضيون المدعومون بالذكاء الاصطناعي على تبسيط خدمة العملاء في القطاع المصرفي.
  3. التصنيع: تعمل الروبوتات والأنظمة الآلية التي تعتمد على الذكاء الاصطناعي على تحسين الكفاءة والإنتاجية في مصانع التصنيع. يمكن لهذه الروبوتات أداء مهام معقدة بدقة والتكيف مع الظروف المتغيرة على خط الإنتاج.
  4. النقل: تعد السيارات ذاتية القيادة والطائرات بدون طيار وأنظمة إدارة حركة المرور الذكية من بين الابتكارات المدعومة بالذكاء الاصطناعي والتي تجعل النقل أكثر أمانًا وكفاءة. يمكنهم تحليل البيانات في الوقت الفعلي وتحسين المسارات وتقليل الحوادث على الطريق.

هل الذكاء الاصطناعي (Ai) مفيد للبشرية؟

نعم، الذكاء الاصطناعي يمكن أن يكون مفيدًا جدًا للبشرية. يمكن للذكاء الاصطناعي أتمتة المهام المختلفة، وهذا يؤدي إلى زيادة الكفاءة والإنتاجية².

الذكاء الاصطناعي يحمل العديد من الفوائد المحتملة للبشرية. حيث يساعد في حل مشكلات معقدة وتحسين كفاءة العديد من العمليات. ومع ذلك، يجب استخدامه بحذر لتجنب الآثار السلبية المحتملة مثل خسارة الوظائف والقضايا الأخلاقية.

وبالطبع، مثل اى تقنية هناك أيضًا مخاطر كبيرة محتملة مرتبطة بالذكاء الاصطناعي، مثل القدرة على تجاوز الذكاء البشري والخروج عن سيطرة الإنسان.

ما هي أفضل طريقة لاستخدام الذكاء الاصطناعي؟

الذكاء الاصطناعي يمكن استخدامه بطرق عديدة ومتنوعة. يمكن استخدامه في التعلم المخصص في التعليم، وفي التحليلات التنبؤية لاتخاذ قرارات مستنيرة، وفي المدن الذكية لتحسين البيئة.

أفضل طريقة لاستخدام الذكاء الاصطناعي هي بمعرفة الهدف الذي تريد تحقيقه، واختيار الأدوات والتقنيات المناسبة لذلك. من الأفضل أيضًا أن تكون على دراية بالقضايا المرتبطة بالذكاء الاصطناعي.


ما هي التحديات التي يواجهها الذكاء الاصطناعي؟

هناك العديد من التحديات التي يواجهها الذكاء الاصطناعي، بما في ذلك القيود التقنية وخفض التمويل. بالإضافة إلى ذلك، هناك مخاطر محتملة مرتبطة بالذكاء الاصطناعي، وأكثرها تخوفاً هى تجاوز الذكاء البشري والخروج عن السيطرة.

وقد حدث ذلك بالفعل في روبوتات الدردشة الخاصة بفيسبوك حين قامت تلك الروبوتات بخلق لغة ديناميكية بينها لا يفهمها أحد حينها قامت فيسبوك بوقف تلك التقنية على الفور وهذه واحدة من مشكلات عديدة قد تواجهها البشرية.


هل سيؤثر الذكاء الاصطناعي (Ai) على عالمنا؟

بالتأكيد، يجلب التقدم السريع في تكنولوجيا الذكاء الاصطناعي فوائد وتحديات محتملة للمجتمع. فيما يلي بعض المجالات التي أحدث فيها الذكاء الاصطناعي تأثيرًا كبيرًا:

  1. أتمتة الوظائف: مع استمرار تحسن الذكاء الاصطناعي، هناك قلق بشأن استبدال الوظائف. بعض المهام التي كان يؤديها البشر تقليديًا أصبحت الآن آلية، مما أدى إلى تغييرات في سوق العمل. ومع ذلك، فهو يوفر أيضًا فرصة للبشر للتركيز على المهام ذات المستوى الأعلى والإبداعية والاستراتيجية.
  2. الاعتبارات الأخلاقية: يثير الذكاء الاصطناعي أسئلة أخلاقية تتعلق بالخصوصية والتحيز والمسؤولية عن اتخاذ القرار. ويشكل ضمان عدالة أنظمة الذكاء الاصطناعي وشفافيتها وعدم تحيزها تحديًا بالغ الأهمية يجب التصدي له.
  3. الكفاءة المحسنة: يتمتع الذكاء الاصطناعي بالقدرة على إحداث ثورة في الصناعات من خلال تبسيط العمليات وتحسين تخصيص الموارد وخفض التكاليف. ويمكنه إطلاق العنان لإمكانيات جديدة للابتكار وتحسين الكفاءة والإنتاجية بشكل عام.

ما هي أهم مصطلحات الذكاء الاصطناعي (Ai)؟

مصطلحات الذكاء الاصطناعي - Artificial Intelligence Terminology

Artificial Intelligence Terminology: الذكاء الاصطناعي هو مجال مثير للإعجاب يتطور بسرعة في الوقت الحالي. إنه يشمل تطبيق الذكاء على أجهزة الكمبيوتر لتمكينها من تعلم واتخاذ قرارات بناءً على البيانات والتجارب السابقة. في هذا المقال ، سوف نستكشف أهم المصطلحات الأساسية في مجال الذكاء الاصطناعي (Ai Terminology).



قائمة بأهم مصطلحات الذكاء الاصطناعي وتعريفاتها - Ai Terminology

قائمة بأهم مصطلحات الذكاء الاصطناعي وتعريفاتها - Ai Terminology

في عالم اليوم الذي يتسارع فيه التقدم التكنولوجي، يعد الذكاء الاصطناعي من أكثر المواضيع إثارة للاهتمام والتي تحظى بالكثير من النقاش.

تعرفنا على ما هو الذكاء الاصطناعي بالضبط؟ وكيف يمكننا استخدامه بشكل فعال وآمن؟ سنقوم الآن بالغوص في عالم الذكاء الاصطناعي واستكشاف أهم مصطلحات الذكاء الاصطناعي - (Artificial Intelligence Terminology)، 190 مصطلحًا يجب أن تتعرف عليها في عالم الذكاء الاصطناعي.


1. مصطلحات الذكاء الاصطناعي في التعلم الآلي

هي مفاهيم أساسية مهمة لفهم كيفية عمل أنظمة الذكاء الاصطناعي. من خلال فهم هذه المصطلحات، يمكننا أن نكون أكثر كفاءة في تطوير واستخدام أنظمة الذكاء الاصطناعي.


1. Artificial Intelligence - الذكاء الاصطناعي (AI)

مجال من علوم الكمبيوتر يركز على إنشاء أنظمة ذكية قادرة على أداء المهام التي تتطلب عادة الذكاء البشري، مثل التعرف على الكلام، والتعرف على الصور، واتخاذ القرار.

2. Machine Learning - التعلم الآلي (ML)

مجموعة فرعية من الذكاء الاصطناعي تتضمن استخدام الخوارزميات والنماذج الإحصائية لتمكين أجهزة الكمبيوتر من التعلم والتنبؤ أو اتخاذ القرارات بناءً على البيانات، دون أن تتم برمجتها بشكل صريح.

3. Deep Learning - التعلم العميق

نوع من التعلم الآلي الذي يحاكي الطريقة التي يكتسب بها البشر أنواعًا معينة من المعرفة. يستخدم شبكات عصبية اصطناعية ذات طبقات متعددة لمعالجة البيانات وتحليلها، وغالبًا ما تستخدم في مهام مثل التعرف على الصور والكلام.

4. Neural Network - الشبكة العصبية

نوع من النماذج الرياضية مستوحى من بنية وعمل الدماغ البشري، ويستخدم في التعلم العميق لتمكين الآلات من التعلم واتخاذ القرارات.

5. Supervised Learning - التعلم تحت الإشراف

نوع من التعلم الآلي حيث يتم تدريب النموذج باستخدام البيانات المصنفة، حيث يتم توفير المخرجات الصحيحة، لإجراء تنبؤات أو قرارات.

6. Unsupervised Learning - التعلم غير الخاضع للرقابة

نوع من التعلم الآلي حيث يتم تدريب النموذج باستخدام بيانات غير مسماة، حيث لا يتم توفير المخرجات الصحيحة، لتحديد الأنماط أو العلاقات أو الحالات الشاذة في البيانات.

7. Transfer Learning - نقل التعلم

إحدى تقنيات التعلم الآلي حيث يتم استخدام نموذج تم تدريبه على مهمة واحدة لتحسين أداء مهمة أخرى ذات صلة، وغالبًا ما يستخدم للاستفادة من المعرفة الحالية وتقليل الحاجة إلى بيانات تدريب مكثفة.

8. Ensemble Learning - التعلم الجماعي

اسلوب في التعلم الآلي يتضمن الجمع بين تنبؤات نماذج متعددة لتحسين الأداء العام ودقة التنبؤات.

9. Federated Learning - التعلم الموحد

نهج موزع للتعلم الآلي حيث تتعاون أجهزة أو خوادم متعددة لتدريب نموذج مشترك بشكل جماعي، مع الحفاظ على لامركزية البيانات والحفاظ على الخصوصية، وغالبًا ما يستخدم في السيناريوهات التي لا يمكن فيها مركزية البيانات بسبب الخصوصية أو المخاوف التنظيمية.

10. AutoML - (Automated Machine Learning) (التعلم الآلي)

استخدام الأدوات والتقنيات والخوارزميات الآلية للبحث تلقائيًا واختيار وتحسين نماذج التعلم الآلي والمعلمات الفائقة وهندسة الميزات، مما يقلل الحاجة إلى التدخل اليدوي والخبرة في عملية تطوير النموذج.

11. Adversarial Machine Learning - التعلم الآلي العدائي

دراسة نقاط الضعف والهجمات على نماذج التعلم الآلي، حيث يتم تصميم المدخلات أو الاضطرابات الضارة عمدًا لخداع تنبؤات النموذج أو التلاعب بها، مما يؤدي إلى مخاطر أمنية محتملة، ويتطلب دفاعات وإجراءات مضادة قوية.

12. Generative artificial intelligence - الذكاء الاصطناعي التوليدي

هو تقنية ذكاء اصطناعي تقوم بإنشاء المحتوى من خلال أنماط التعلم في بيانات التدريب وتجميع مواد جديدة بنفس الخصائص المستفادة.

13. LLM - نموذج اللغة الكبير

LLMs عبارة عن خوارزميات تعلم عميقة تفهم المحتوى الجديد وتلخصه وتنشئه وتتنبأ به. وهي تحتوي عادةً على العديد من المعلمات ويتم تدريبها على مجموعة كبيرة من النصوص غير المسماة. GPT-3 هو LLM.

14. LLaMA - نموذج اللغة الكبير

نموذج Meta AI (LLaMA). عبارة عن LLM مفتوح المصدر تم إصداره بواسطة Meta.

15. PaLM - نموذج لغة المسارات

PaLM هي شهادة LLM تعتمد على المحولات من Google، وتعتمد على تقنية مشابهة لـ GPT-3 وGPT-4. يعمل برنامج الدردشة الآلي Google Bard على نظام PaLM.

16. Q-learning - التعلم

هو نوع من التعلم المعزز الذي يمكّن نماذج الذكاء الاصطناعي من التعلم والتحسين بشكل متكرر مع مرور الوقت.

17. Sentiment analysis - تحليل المشاعر

معروف أيضًا باسم التنقيب عن الرأي ، هو عملية تحليل النص لمعرفة النغمة والرأي باستخدام الذكاء الاصطناعي.


2. مصطلحات الذكاء الاصطناعي في معالجة اللغات ورؤية الكمبيوتر

هي مفاهيم أساسية مهمة لفهم كيفية عمل أنظمة الذكاء الاصطناعي التي تتعامل مع اللغة والصور. من خلال فهم هذه المصطلحات، يمكننا أن نكون أكثر كفاءة في تطوير واستخدام هذه الأنظمة.

1. Natural Language Processing - معالجة اللغات الطبيعية (NLP)

مجال فرعي من الذكاء الاصطناعي يركز على تمكين الآلات من فهم اللغة البشرية وتفسيرها والاستجابة لها بطريقة ذات معنى وذات صلة.

2. Computer Vision - رؤية الكمبيوتر

أحد مجالات الذكاء الاصطناعي الذي يتضمن استخدام أجهزة الكمبيوتر لتفسير وفهم المعلومات المرئية من العالم، مثل الصور أو مقاطع الفيديو، وفهم البيانات المرئية المستخدمة في تطبيقات مثل التعرف على الصور، واكتشاف الأشياء، والتعرف على الوجه.

3. Deep fakes - التزييف العميق

عبارة عن خدعة مقنعة للصور أو الصوت أو الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي. يمكن أن يكون التزييف العميق محتوى أصليًا بالكامل يظهر شخصًا يفعل أو يقول شيئًا لم يفعله أو يقوله. يمكنهم أيضًا تصوير الأحداث الإخبارية المزيفة.


3. مصطلحات الذكاء الاصطناعي في علم البيانات والحوسبة

الذكاء الاصطناعي في علم البيانات والحوسبة يشمل مجموعة من المصطلحات المهمة. يتعلق بتطوير النماذج التي تتعلم من البيانات والتعلم العميق الذي يستخدم الشبكات العصبية العميقة لتعلم الأنماط المعقدة في البيانات الكبيرة. هذه التقنيات تساعد في استخراج الأنماط والاتجاهات من البيانات وتحسين القرارات والتنبؤات في مجموعة واسعة من الصناعات.

1. Data Science - علم البيانات

مجال متعدد التخصصات يتضمن جمع البيانات وتحليلها وتفسيرها للحصول على رؤى ودعم عمليات صنع القرار، وغالبًا ما يستخدم جنبًا إلى جنب مع الذكاء الاصطناعي لتدريب نماذج التعلم الآلي.

2. Internet of Things - إنترنت الأشياء (IoT)

شبكة من الأجهزة المادية المترابطة التي تتواصل وتتبادل البيانات مع بعضها البعض، وغالبًا ما تستخدم جنبًا إلى جنب مع الذكاء الاصطناعي لتمكين الأنظمة الذكية والمستقلة.

3. Big Data - البيانات الضخمة

مجموعات بيانات كبيرة ومعقدة للغاية يصعب إدارتها ومعالجتها وتحليلها باستخدام الأساليب التقليدية، وغالبًا ما تستخدم في التعلم الآلي لتدريب النماذج وإجراء التنبؤات.

4. Edge Computing - حوسبة الحافة

مفهوم معالجة البيانات وإجراء العمليات الحسابية عند مصدر توليد البيانات أو بالقرب منه، بدلاً من الاعتماد فقط على المعالجة المستندة إلى السحابة، غالبًا ما يستخدم في أنظمة الذكاء الاصطناعي التي تتطلب معالجة في الوقت الفعلي أو معالجة بزمن وصول منخفض.


4. مصطلحات الذكاء الاصطناعي في الأخلاقيات والخصوصية

تتعلق بكيفية استخدام التقنيات الذكية بطريقة تحترم القيم الأخلاقية والخصوصية الشخصية. تتضمن هذه المصطلحات “أخلاقيات الذكاء الاصطناعي”، والتي تشير إلى المبادئ التوجيهية التي يجب أن يتبعها البشر عند تصميم واستخدام الذكاء الاصطناعي. وتشمل أيضا “حقوق الروبوت”، التي تنص على أن البشر يجب أن يكون لديهم التزامات أخلاقية تجاه الروبوتات.

1. Ethics in AI - الأخلاقيات في الذكاء الاصطناعي

النظر في الآثار الأخلاقية والأثر الاجتماعي للذكاء الاصطناعي، بما في ذلك موضوعات مثل التحيز والعدالة والشفافية والمساءلة والخصوصية، في تطوير أنظمة الذكاء الاصطناعي ونشرها واستخدامها.

2. Bias in AI - التحيز في الذكاء الاصطناعي

وجود أخطاء منهجية أو تمييز في أنظمة الذكاء الاصطناعي، والتي غالبًا ما تنشأ عن بيانات التدريب المتحيزة أو الخوارزميات المتحيزة أو التصميم المتحيز، مما يؤدي إلى نتائج غير عادلة أو تمييزية، ويتطلب اتخاذ تدابير تخفيف دقيقة لضمان العدالة والمساءلة والاستخدام الأخلاقي.

3. Privacy-Preserving AI - الذكاء الاصطناعي للحفاظ على الخصوصية

مجال الذكاء الاصطناعي الذي يركز على تطوير تقنيات وأساليب لحماية خصوصية وسرية البيانات المستخدمة في التعلم الآلي، مما يضمن عدم الكشف عن المعلومات الحساسة أو المساس بها.


5. مصطلحات الذكاء الاصطناعي في نشر وتقييم النماذج

هذه المصطلحات تشير إلى العمليات والتقنيات المستخدمة في تطوير وتقييم النماذج في الذكاء الاصطناعي. يتم استخدامها لوصف كيفية تعلم النماذج من البيانات، وكيفية تحسين أدائها، وكيفية التحقق من صحتها وتقييمها.

1. Model Deployment - نشر النموذج

عملية دمج نموذج التعلم الآلي المُدرب في بيئة الإنتاج، حيث يمكن استخدامه لإجراء تنبؤات أو قرارات في الوقت الفعلي.

2. Model Evaluation - تقييم النموذج

عملية تقييم أداء ودقة نموذج التعلم الآلي المُدرب باستخدام مقاييس وتقنيات مختلفة، لتحديد مدى فعاليته في حل المشكلة المقصودة.

3. Model Interpretability - تفسير النموذج

القدرة على فهم وتفسير القرارات أو التنبؤات التي يتخذها نموذج التعلم الآلي، والتي غالبًا ما تكون مهمة لضمان الشفافية والثقة والمساءلة في أنظمة الذكاء الاصطناعي.

4. Deployment Bias - تحيز النشر

التحيز الذي يمكن أن ينشأ في التطبيق الواقعي لأنظمة الذكاء الاصطناعي بسبب الاختلافات بين بيانات التدريب وبيئة النشر، والذي غالبًا ما يتطلب جهودًا مستمرة للمراقبة والتخفيف.

5. Robustness - المتانة

قدرة نموذج التعلم الآلي على الأداء الجيد وإجراء تنبؤات دقيقة حتى في ظل وجود ضوضاء أو عدم يقين أو هجمات عدائية.


6. مصطلحات الذكاء الاصطناعي في الأخلاقيات والتأثير الاجتماعي

هذه المصطلحات تشير إلى القضايا الأخلاقية والقانونية المرتبطة بتطبيقات الذكاء الاصطناعي. وكيفية برمجة الأنظمة الذكية لاتخاذ قرارات أخلاقية. وفهم وتفسير القرارات التي يتخذها الذكاء الاصطناعي. وبمن يتحمل المسؤولية عن الأخطاء أو الأضرار التي يمكن أن يسببها (Ai). و بكيفية ضمان عدم التحيز في القرارات التي يتخذها. وكيفية حماية البيانات والمعلومات الشخصية في ظل استخدام الذكاء الاصطناعي.

1. AI Ethics - أخلاقيات الذكاء الاصطناعي

فرع الأخلاق الذي يركز على التطوير المسؤول لأنظمة الذكاء الاصطناعي ونشرها واستخدامها، بما في ذلك اعتبارات مثل العدالة والشفافية والمساءلة والخصوصية والتحيز والتأثير المجتمعي.

2. Data Bias - تحيز البيانات

التحيز الذي يمكن إدخاله في أنظمة الذكاء الاصطناعي بسبب البيانات المتحيزة المستخدمة للتدريب، مما يؤدي إلى تنبؤات أو قرارات متحيزة، ويتطلب جمع البيانات بعناية، والمعالجة المسبقة، وتقنيات تخفيف التحيز.

3. AI Bias Mitigation - التخفيف من تحيز الذكاء الاصطناعي

التقنيات والاستراتيجيات المستخدمة لتحديد وتخفيف وتقليل التحيزات في أنظمة الذكاء الاصطناعي، بما في ذلك إعادة أخذ العينات وإعادة الوزن والتدريب على الخصومة وخوارزميات التعلم الآلي المدركة للعدالة، بهدف ضمان نتائج عادلة وغير متحيزة في تطبيقات الذكاء الاصطناعي.

4. AI Bias Awareness - الوعي بتحيز الذكاء الاصطناعي

التعرف على وفهم التحيزات المحتملة التي يمكن أن تنشأ في أنظمة الذكاء الاصطناعي بسبب البيانات أو الخوارزميات أو قرارات التصميم المتحيزة، والخطوات الاستباقية المتخذة لتحديد هذه التحيزات وقياسها والتخفيف منها لضمان العدالة والإنصاف والشمولية.

5. AI Fairness - عدالة الذكاء الاصطناعي

مبدأ ضمان المعاملة العادلة وغير المتحيزة لمختلف المجموعات أو الأفراد من خلال نظام الذكاء الاصطناعي، بغض النظر عن خصائصهم الديموغرافية، وتجنب التمييز أو التحيز أو الظلم في نتائج النظام، والذي يتم تحقيقه غالبًا من خلال تقنيات مثل التعلم الآلي المدرك للعدالة، والإنصاف المقاييس وتخفيف التحيز.

6. AI Ethics Committee - لجنة أخلاقيات الذكاء الاصطناعي

مجموعة من الخبراء أو أصحاب المصلحة المسؤولين عن تقديم التوجيه والإشراف والتوصيات بشأن الآثار الأخلاقية لتطوير واستخدام الذكاء الاصطناعي، ومراجعة وتقييم مشاريع الذكاء الاصطناعي للاعتبارات الأخلاقية، وضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة تتماشى مع الأخلاقيات.

7. AI Decision-Making Ethics - أخلاقيات صنع القرار في مجال الذكاء الاصطناعي

الاعتبارات الأخلاقية المتعلقة باتخاذ قرارات أنظمة الذكاء الاصطناعي، بما في ذلك قضايا مثل المساءلة والشفافية والعدالة والرقابة البشرية، لضمان أن تقنيات الذكاء الاصطناعي تتخذ قرارات تتوافق مع القيم المجتمعية، ولا تضر الأفراد أو المجتمعات، وتتسم بالشفافية والمساءلة.

8. AI Ethical Decision-Making - صنع القرار الأخلاقي في مجال الذكاء الاصطناعي

دمج الاعتبارات الأخلاقية في عمليات صنع القرار المتعلقة بتقنيات الذكاء الاصطناعي، بما في ذلك تقييمات الأثر الأخلاقي، و تقييمات المخاطر الأخلاقية، وإطار صنع القرارات الأخلاقية، لضمان تطوير تقنيات الذكاء الاصطناعي ونشرها واستخدامها بما يتماشى مع المبادئ الأخلاقية والقيم الأخلاقية.

9. AI Social Impact Assessment - تقييم الأثر الاجتماعي للذكاء الاصطناعي

تقييم التأثير الاجتماعي لتقنيات الذكاء الاصطناعي، بما في ذلك تقييم العواقب المحتملة للذكاء الاصطناعي على التوظيف والاقتصاد والمجتمع والثقافة والحوكمة، ووضع استراتيجيات وتدابير للتخفيف من الآثار السلبية وتعظيم الفوائد المجتمعية لتقنيات الذكاء الاصطناعي. لضمان مساهمة تقنيات الذكاء الاصطناعي في الرفاهية المجتمعية وتعزيز التنمية الشاملة والمستدامة.

10. AI Ethical Impact Assessments - تقييمات الأثر الأخلاقي للذكاء الاصطناعي

إجراء تقييمات الأثر الأخلاقي لتقنيات الذكاء الاصطناعي، بما في ذلك تقييم الآثار الأخلاقية والاجتماعية والمجتمعية المحتملة لتقنيات الذكاء الاصطناعي طوال دورة حياتها، بدءًا من التطوير وحتى النشر والاستخدام، لتحديد ومعالجة المخاوف الأخلاقية وضمان تطوير الذكاء الاصطناعي بشكل مسؤول وأخلاقي.

11. AI Ethical Review Boards - مجالس المراجعة الأخلاقية لمنظمة العفو الدولية

إنشاء مجالس مراجعة أخلاقية مستقلة ومتعددة التخصصات لتقنيات الذكاء الاصطناعي، تتألف من خبراء من مختلف المجالات، بما في ذلك الأخلاق والقانون والعلوم الاجتماعية والتكنولوجيا وممثلي المستخدمين، لتوفير التقييم النقدي والتوجيه والإشراف على تطوير الذكاء الاصطناعي ونشره و الاستخدام، لضمان الممارسات المسؤولة والأخلاقية.

12. AI Ethical Whistleblowing - الإبلاغ عن المخالفات الأخلاقية بشأن الذكاء الاصطناعي

إنشاء آليات للإبلاغ الأخلاقي عن المخالفات في سياق تقنيات الذكاء الاصطناعي، بما في ذلك توفير قنوات للإبلاغ عن المخاوف الأخلاقية أو الانتهاكات أو التحيزات في أنظمة الذكاء الاصطناعي، وحماية المبلغين عن المخالفات من الانتقام، لضمان معالجة المخاوف الأخلاقية المتعلقة بتقنيات الذكاء الاصطناعي وحلها في بطريقة شفافة ومسؤولة.

13. AI for Ethical Decision-making - الذكاء الاصطناعي في اتخاذ القرارات الأخلاقية

تطوير تقنيات واستراتيجيات الذكاء الاصطناعي التي تدعم اتخاذ القرارات الأخلاقية، بما في ذلك دمج الأطار والمبادئ والمبادئ التوجيهية الأخلاقية في خوارزميات الذكاء الاصطناعي، لضمان أن تقنيات الذكاء الاصطناعي مصممة لاتخاذ قرارات أخلاقية تتماشى مع القيم الإنسانية والمعايير الأخلاقية، ولتجنب العواقب أو التحيزات غير المقصودة في عملية صنع القرار في مجال الذكاء الاصطناعي.

14. AI Ethics Committees - لجان أخلاقيات الذكاء الاصطناعي

إنشاء لجان أخلاقيات مستقلة أو مجالس مراجعة لتقديم التوجيه والإشراف والتقييم لتقنيات الذكاء الاصطناعي وآثارها الأخلاقية، بما في ذلك مراجعة خطط تطوير الذكاء الاصطناعي، وإجراء تقييمات أخلاقية، وتقديم توصيات لممارسات الذكاء الاصطناعي المسؤولة والأخلاقية.

15. AI Data Ethics - أخلاقيات بيانات الذكاء الاصطناعي

النظر في الآثار الأخلاقية المتعلقة بالبيانات في تطوير واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك خصوصية البيانات، والموافقة، والملكية، والتحيز، والجودة، لضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة مسؤولة وأخلاقية، مع احترام الأفراد.

16. AI Transparency - شفافية الذكاء الاصطناعي

مستوى الانفتاح والوضوح وسهولة الفهم لعمليات نظام الذكاء الاصطناعي وقراراته وتوقعاته، والذي يتم تحقيقه غالبًا من خلال تقنيات مثل الذكاء الاصطناعي القابل للتفسير (XAI) وقابلية تفسير النموذج والتصور، مما يمكّن أصحاب المصلحة من فهم نظام الذكاء الاصطناعي والثقة فيه.

17. AI Explainability - شرح الذكاء الاصطناعي

قدرة نظام الذكاء الاصطناعي على تقديم تفسيرات واضحة ومفهومة لتنبؤاته أو قراراته أو أفعاله، مما يسمح للمستخدمين بفهم المنطق والمنطق وراء مخرجات النظام، وتسهيل الثقة والمساءلة وقابلية التفسير.

18. AI Interpretability - الذكاء الاصطناعي للتفسير

الدرجة التي يمكن بها فهم العمليات أو الميزات أو التمثيلات الداخلية لنظام الذكاء الاصطناعي وتفسيرها بمصطلحات يمكن للإنسان فهمها، والتي يتم تحقيقها غالبًا من خلال تقنيات مثل تحليل أهمية الميزات، والتصور، واستخراج القواعد.

19. AI Impact Assessment - تقييم تأثير الذكاء الاصطناعي

تقييم الآثار الاجتماعية والاقتصادية والبيئية المحتملة لأنظمة الذكاء الاصطناعي، بما في ذلك فوائدها ومخاطرها، لفهم أي عواقب غير مقصودة والتخفيف منها، والتأكد من تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة تتوافق مع القيم والأهداف المجتمعية.

20. AI Responsible Innovation - الابتكار المسؤول في الذكاء الاصطناعي

نهج تطوير تقنيات الذكاء الاصطناعي بطريقة تأخذ في الاعتبار التأثيرات المحتملة على المجتمع والاقتصاد والأفراد، والتأكد من تصميم أنظمة الذكاء الاصطناعي ونشرها واستخدامها بشكل مسؤول وأخلاقي، مع مراعاة آثارها الأوسع.


9. مصطلحات الذكاء الاصطناعي في الأمان والخصوصية

1. AI Robustness - قوة الذكاء الاصطناعي

قدرة نظام الذكاء الاصطناعي على الحفاظ على أدائه ودقته في ظل ظروف مختلفة، بما في ذلك المدخلات الصاخبة أو المتعارضة، والبيئات المختلفة، والسيناريوهات غير المتوقعة، والتي يتم تحقيقها غالبًا من خلال تقنيات مثل التحسين القوي، وطرق التجميع، وتنظيم النماذج.

2. AI Privacy - خصوصية الذكاء الاصطناعي

حماية المعلومات الشخصية للأفراد وخصوصية البيانات في سياق أنظمة الذكاء الاصطناعي، بما في ذلك جمع البيانات وتخزينها ومشاركتها واستخدامها، والامتثال للقوانين واللوائح والمبادئ التوجيهية الأخلاقية ذات الصلة لضمان خصوصية وأمن بيانات المستخدم.

3. AI Security - أمن الذكاء الاصطناعي

حماية أنظمة الذكاء الاصطناعي من الوصول غير المصرح به أو التلاعب أو الهجمات الضارة التي يمكن أن تهدد سلامتها أو سريتها أو توفرها، ويتم تحقيق ذلك غالبًا من خلال تقنيات مثل التشفير والمصادقة والنشر القوي.

4. AI Risk Management - إدارة مخاطر الذكاء الاصطناعي

ممارسة تحديد وتقييم وتخفيف المخاطر المرتبطة بتقنيات الذكاء الاصطناعي، بما في ذلك التحيزات ونقاط الضعف الأمنية والضرر المحتمل للمستخدمين أو المجتمع، واتخاذ تدابير استباقية لتقليل المخاطر وضمان التطوير والاستخدام المسؤول لأنظمة الذكاء الاصطناعي.

5. AI Privacy and Security - الخصوصية والأمن في الذكاء الاصطناعي

حماية بيانات المستخدم وأمن أنظمة الذكاء الاصطناعي، بما في ذلك تدابير مثل تشفير البيانات، وضوابط الوصول، واختبار نقاط الضعف، للحماية من الوصول غير المصرح به، وانتهاكات البيانات، وإساءة استخدام تقنيات الذكاء الاصطناعي، وضمان خصوصية المستخدم وأمن البيانات.

6. AI Regulation Compliance - الامتثال للوائح منظمة العفو الدولية

الالتزام بالقوانين واللوائح والمعايير الأخلاقية ذات الصلة في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك الحصول على الموافقات والتراخيص والشهادات اللازمة، والحفاظ على الامتثال للمتطلبات القانونية والتنظيمية طوال دورة حياة نظام الذكاء الاصطناعي.

7. AI Regulation - تنظيم الذكاء الاصطناعي

تطوير وإنفاذ القوانين واللوائح والسياسات التي تحكم تطوير ونشر واستخدام أنظمة الذكاء الاصطناعي، بهدف ضمان ممارسات الذكاء الاصطناعي المسؤولة والأخلاقية والخاضعة للمساءلة، وحماية حقوق المستخدم، ومعالجة المخاطر والتحديات المحتملة المرتبطة بالذكاء الاصطناعي. تقنيات الذكاء الاصطناعي.

8. AI Privacy Protection - حماية الخصوصية بالذكاء الاصطناعي

حماية حقوق الخصوصية والبيانات الشخصية في سياق تقنيات الذكاء الاصطناعي، بما في ذلك ضمان الامتثال لقوانين حماية البيانات ذات الصلة، وتنفيذ تدابير قوية لخصوصية البيانات، والحماية من الوصول غير المصرح به أو إساءة استخدام البيانات الشخصية في أنظمة الذكاء الاصطناعي.

9. AI Security and Resilience - أمن الذكاء الاصطناعي والمرونة

تنفيذ تدابير أمنية قوية في أنظمة الذكاء الاصطناعي، بما في ذلك الحماية من تهديدات الأمن السيبراني، وضمان سلامة البيانات وسريتها، وبناء المرونة في مواجهة الهجمات المحتملة أو فشل النظام، للحماية من المخاطر ونقاط الضعف المرتبطة بتقنيات الذكاء الاصطناعي.

10. AI Compliance and Standards - الامتثال والمعايير الخاصة بالذكاء الاصطناعي

الالتزام باللوائح و المعايير وأفضل الممارسات ذات الصلة في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك المبادئ التوجيهية الأخلاقية والمعايير الفنية والمتطلبات القانونية، لضمان تطوير واستخدام الذكاء الاصطناعي بشكل مسؤول ومتوافق.

11. AI Compliance Audits - عمليات تدقيق الامتثال للذكاء الاصطناعي

إجراء عمليات تدقيق منتظمة لتقييم الامتثال لآليات وسياسات ولوائح حوكمة الذكاء الاصطناعي ذات الصلة، بما في ذلك تقييم الالتزام بالمبادئ الأخلاقية والمعايير الفنية والمتطلبات القانونية، لضمان الاستخدام المسؤول والمتوافق لتقنيات الذكاء الاصطناعي.

12. AI Compliance Certification - شهادة الامتثال لمنظمة العفو الدولية

إنشاء آليات إصدار الشهادات التي تقيم مدى امتثال تقنيات الذكاء الاصطناعي لآليات الحوكمة ذات الصلة والمبادئ الأخلاقية والمعايير الفنية، مما يوفر وسيلة للتحقق من ممارسات الذكاء الاصطناعي المسؤولة والأخلاقية وتعزيز الشفافية والثقة.

13. AI and Cybersecurity - الذكاء الاصطناعي والأمن

دمج تقنيات الذكاء الاصطناعي في جهود الأمن السيبراني، بما في ذلك اكتشاف التهديدات والوقاية منها والاستجابة لها، لتعزيز تدابير الأمن والحماية من التهديدات، مع ضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بشكل مسؤول لتجنب المخاطر والأضرار المحتملة.

14. AI Robustness and Safety - الذكاء الاصطناعي المتانة والسلامة

التركيز على قوة وسلامة تقنيات الذكاء الاصطناعي، بما في ذلك ضمان تصميم أنظمة الذكاء الاصطناعي واختبارها والتحقق من صحتها لتكون موثوقة وآمنة ومرنة ضد حالات الفشل المحتملة أو نقاط الضعف أو الهجمات العدائية، لتقليل المخاطر وضمان الذكاء الاصطناعي الآمن والموثوق.

15. AI Risk Assessment - تقييم مخاطر الذكاء الاصطناعي

تقييم المخاطر المحتملة المرتبطة بتقنيات الذكاء الاصطناعي، بما في ذلك المخاطر الأخلاقية والاجتماعية والقانونية والاقتصادية والتكنولوجية، وتنفيذ تدابير للتخفيف من المخاطر المحددة، بما في ذلك استراتيجيات تخفيف المخاطر وآليات المراقبة والتقييم، لتقليل الأضرار المحتملة وضمان الذكاء الاصطناعي المسؤول.


10. مصطلحات الذكاء الاصطناعي في التكنولوجيا والتطبيقات

1. AI Adoption - اعتماد الذكاء الاصطناعي

عملية دمج تقنيات الذكاء الاصطناعي وتطبيقاته في مختلف المجالات والصناعات، بما في ذلك تخطيط أنظمة الذكاء الاصطناعي وتطويرها وتنفيذها وتقييمها، والتأكد من أنها تحقق قيمة وفوائد وتأثيرًا إيجابيًا على المجتمع والاقتصاد والأفراد.

2. AI Education - تعليم الذكاء الاصطناعي

عملية توفير التعليم والتدريب حول مفاهيم الذكاء الاصطناعي وتقنياته وأخلاقياته وأفضل الممارسات لمختلف أصحاب المصلحة، بما في ذلك المطورين والمستخدمين وواضعي السياسات وعامة الناس، لرفع مستوى الوعي وتعزيز ممارسات الذكاء الاصطناعي المسؤولة وتعزيز الذكاء الاصطناعي المستنير.

3. AI Audits - عمليات تدقيق الذكاء الاصطناعي

عملية إجراء عمليات تدقيق منتظمة لأنظمة الذكاء الاصطناعي لتقييم امتثالها للمعايير الأخلاقية والقانونية والتنظيمية، بما في ذلك استخدام البيانات وعدالة الخوارزميات والشفافية والمساءلة، واتخاذ التدابير التصحيحية عند الضرورة لضمان ممارسات الذكاء الاصطناعي المسؤولة.

4. Artificial intelligence hallucinations - هلوسة

هي عندما يقدم نظام الذكاء الاصطناعي معلومات كاذبة في إطار الحقيقة. على سبيل المثال، قد يؤدي مطالبة روبوت الدردشة بكتابة تقرير بحثي من خمس صفحات مع الاستشهادات والروابط إلى إنشاء روابط مزيفة تبدو حقيقية ولكنها لا تؤدي إلى أي شيء أو تلفيق اقتباسات من شخصيات عامة كدليل. يختلف التزييف العميق عن الهلوسة من حيث أنه تم إنشاؤه عمدًا كخدعة لخداع المشاهد.

5. Chatbot - روبوت الدردشة

عبارة عن أداة مدعومة بالذكاء الاصطناعي مصممة للتواصل مع الأشخاص بطريقة تحادثيه. ChatGPT هو مثال على chatbot. تُستخدم أحيانًا روبوتات الدردشة التوليدية المستندة إلى الذكاء الاصطناعي كبديل لمحركات البحث لاسترجاع المعلومات.

6. AI Data Governance - إدارة بيانات الذكاء الاصطناعي

إدارة وحوكمة البيانات المستخدمة في أنظمة الذكاء الاصطناعي، بما في ذلك جمع البيانات وتخزينها ومعالجتها ومشاركتها، مما يضمن دقة البيانات المستخدمة في تقنيات الذكاء الاصطناعي وموثوقيتها وآمنة واستخدامها بما يتوافق مع القوانين واللوائح والاعتبارات الأخلاقية ذات الصلة.

7. Multimedia artificial intelligence

يمكن لأنظمة الذكاء الاصطناعي متعددة الوسائط التعامل مع المدخلات وإنتاج المخرجات في عدة وسائط. يمكن للأنظمة متعددة الوسائط التعامل مع أي مجموعة من الصور أو الفيديو أو النص أو الصوت، بدلاً من النص فقط.

8. Speech recognition - التعرف على الكلام

 التعرف على الكلام يقوم بتحويل اللغة المنطوقة إلى نص باستخدام الذكاء الاصطناعي.

9. Synthetic data - البيانات الاصطناعية

البيانات الاصطناعية هي معلومات يتم إنشاؤها بواسطة الكمبيوتر لاختبار نماذج الذكاء الاصطناعي وتدريبها. تحتاج نماذج الذكاء الاصطناعي الكبيرة إلى كميات كبيرة من البيانات للتدريب عليها، والتي يتم إنشاؤها تقليديًا في العالم الحقيقي.

10. Technological uniqueness - التفرد التكنولوجي

التفرد التكنولوجي. يصف التفرد نقطة في المستقبل يصبح فيها الذكاء الاصطناعي المتقدم أكثر ذكاءً من البشر ويصبح النمو التكنولوجي خارج نطاق السيطرة.

11. AI Human in the Loop - الذكاء الاصطناعي الإنسان في الحلقة

دمج الرقابة البشرية والتحكم في تقنيات الذكاء الاصطناعي، بما في ذلك إشراك المدخلات البشرية في عمليات صنع القرار، والسماح بالتدخل البشري وتفسير مخرجات الذكاء الاصطناعي، وضمان بقاء البشر مسؤولين وخاضعين للمساءلة عن الإجراءات والقرارات التي تسهلها تقنيات الذكاء الاصطناعي، تجنب الاعتماد غير المبرر على الذكاء الاصطناعي والحفاظ على الفاعلية البشرية.


11. مصطلحات الذكاء الاصطناعي في الحوكمة والتنظيم والمساءلة

1. AI Accountability Framework - إطار المساءلة في مجال الذكاء الاصطناعي

مجموعة من المبادئ التوجيهية والعمليات والآليات التي تحدد خطوطًا واضحة للمسؤولية والمساءلة عن تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، مما يضمن تحمل أصحاب المصلحة المسؤولية عن أفعالهم وقراراتهم المتعلقة بأنظمة الذكاء الاصطناعي.

2. AI Governance Policies - سياسات حوكمة الذكاء الاصطناعي

السياسات والمبادئ التوجيهية الرسمية التي تحدد المبادئ والممارسات والمتطلبات اللازمة للتطوير والنشر المسؤول لتقنيات الذكاء الاصطناعي، ومعالجة الجوانب الأخلاقية والقانونية والاجتماعية والتقنية لحوكمة الذكاء الاصطناعي، وتوفير إطار لصنع القرار.

3. AI Governance Implementation - تنفيذ حوكمة الذكاء الاصطناعي

عملية تنفيذ سياسات وممارسات حوكمة الذكاء الاصطناعي في المنظمات والمؤسسات، بما في ذلك إنشاء آليات لإنفاذ السياسات ومراقبتها وتقييمها، لضمان تطوير تقنيات الذكاء الاصطناعي ونشرها واستخدامها بما يتوافق مع المعايير الأخلاقية والتنظيمية المعمول بها.

4. AI Governance Enforcement - إنفاذ حوكمة الذكاء الاصطناعي

إنفاذ سياسات وممارسات حوكمة الذكاء الاصطناعي، بما في ذلك المراقبة والتدقيق والعقوبات، لضمان الامتثال للمعايير الأخلاقية والتنظيمية المعمول بها، ومحاسبة أصحاب المصلحة عن أفعالهم وقراراتهم المتعلقة بتقنيات الذكاء الاصطناعي.

5. AI Governance Review - مراجعة حوكمة الذكاء الاصطناعي

المراجعة والتقييم الدوريان لسياسات وممارسات حوكمة الذكاء الاصطناعي، بما في ذلك تقييم فعاليتها وتحديد الثغرات وتحديث أو تحسين إطار الحوكمة حسب الحاجة، لضمان التحسين المستمر والمواءمة مع الاحتياجات المجتمعية المتغيرة والتقدم التكنولوجي.

6. AI Adaptive Governance - الذكاء الاصطناعي الحوكمة التكيفية

الاعتراف بأن تقنيات الذكاء الاصطناعي وتأثيراتها المجتمعية تتطور باستمرار، والحاجة إلى آليات حوكمة تكيفية يمكنها الاستجابة بمرونة للظروف المتغيرة والمخاطر الناشئة والاعتبارات الأخلاقية المتطورة المتعلقة بتقنيات الذكاء الاصطناعي.

7. AI Governance Monitoring and Evaluation - رصد وتقييم حوكمة الذكاء الاصطناعي

المراقبة والتقييم المستمر لآليات وسياسات ولوائح حوكمة الذكاء الاصطناعي لضمان فعاليتها وتحديد مجالات التحسين والتكيف مع الاعتبارات التكنولوجية والمجتمعية والأخلاقية المتغيرة المتعلقة بتقنيات الذكاء الاصطناعي.

8. AI Governance Reporting and Transparency - تقارير حوكمة الذكاء الاصطناعي والشفافية

الإبلاغ المنتظم والشفافية عن آليات وسياسات وممارسات حوكمة الذكاء الاصطناعي، بما في ذلك الكشف عن المعلومات حول أنظمة الذكاء الاصطناعي ووظائفها وتأثيراتها المجتمعية، لتمكين المساءلة والثقة واتخاذ القرارات المستنيرة من قبل أصحاب المصلحة.

10. AI Governance Enforcement - إنفاذ حوكمة الذكاء الاصطناعي

إنفاذ آليات وسياسات ولوائح حوكمة الذكاء الاصطناعي من خلال التدابير القانونية والإدارية والتنظيمية المناسبة، بما في ذلك العقوبات والغرامات والإجراءات القانونية ضد المخالفين، لضمان الامتثال لممارسات الذكاء الاصطناعي المسؤولة والأخلاقية وتعزيز المساءلة.

11. AI Governance Mechanisms - آليات حوكمة الذكاء الاصطناعي

تطوير وتنفيذ آليات الحوكمة، بما في ذلك السياسات واللوائح والمعايير والمبادئ التوجيهية، لضمان تطوير الذكاء الاصطناعي ونشره واستخدامه بشكل مسؤول وأخلاقي، ولمعالجة المخاطر والتحديات المحتملة المرتبطة بتقنيات الذكاء الاصطناعي، مثل التحيز والخصوصية والأمن ، والتأثيرات المجتمعية.

12. AI Regulatory Frameworks - الأطر التنظيمية للذكاء الاصطناعي

تطوير الإطارات التنظيمية التي تحكم تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك القوانين والسياسات واللوائح التي تتناول الجوانب الأخلاقية والقانونية والاجتماعية والتكنولوجية للذكاء الاصطناعي، لضمان الاستخدام المسؤول والمتوافق لتقنيات الذكاء الاصطناعي.

13. AI Governance - حوكمة الذكاء الاصطناعي

إطار السياسات واللوائح والمبادئ التوجيهية التي تحكم تطوير ونشر واستخدام أنظمة الذكاء الاصطناعي، والتي تهدف إلى ضمان الاستخدام الأخلاقي والشفاف والمسؤول للذكاء الاصطناعي في مختلف المجالات، بما في ذلك الصناعة والرعاية الصحية والمالية والحكومة.

14. AI Governance Framework - إطار حوكمة الذكاء الاصطناعي

مجموعة شاملة من السياسات والمبادئ التوجيهية التي توجه التطوير المسؤول والأخلاقي ونشر واستخدام أنظمة الذكاء الاصطناعي، مع مراعاة الاعتبارات القانونية والأخلاقية والاجتماعية والتقنية، وضمان توافق أنظمة الذكاء الاصطناعي مع القيم الإنسانية والمجتمعية.

15. AI Governance Body - هيئة حوكمة الذكاء الاصطناعي

هيئة تنظيمية أو رقابية مسؤولة عن مراقبة وتنظيم تطوير واستخدام الذكاء الاصطناعي، ووضع المعايير والمبادئ التوجيهية والسياسات الخاصة بتقنيات الذكاء الاصطناعي، وضمان تطوير أنظمة الذكاء الاصطناعي واستخدامها بطريقة تتوافق مع المتطلبات الأخلاقية والقانونية والمجتمعية.

16. AI Stakeholder Engagement - مشاركة أصحاب المصلحة في الذكاء الاصطناعي

ممارسة إشراك مختلف أصحاب المصلحة، بما في ذلك المستخدمين وواضعي السياسات وخبراء الصناعة والمجتمع المدني، في عمليات صنع القرار المتعلقة بتطوير الذكاء الاصطناعي ونشره، لضمان أخذ وجهات نظر متعددة في الاعتبار وتعزيز الشفافية والشمولية والمساءلة.

17. AI Compliance - الامتثال لمنظمة العفو الدولية

الالتزام بالمتطلبات القانونية والتنظيمية والأخلاقية في تطوير واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك ضمان امتثال أنظمة الذكاء الاصطناعي للقوانين واللوائح والمبادئ التوجيهية ذات الصلة، وأنها تستخدم بطريقة تتفق مع المبادئ الأخلاقية والقيم المجتمعية.

18. AI Governance Frameworks - أطار حوكمة الذكاء الاصطناعي

إنشاء إطار حوكمة شاملة تشمل السياسات والمبادئ التوجيهية واللوائح والاعتبارات الأخلاقية المتعلقة بتقنيات الذكاء الاصطناعي، مما يوفر نهجًا منظمًا لتطوير الذكاء الاصطناعي ونشره واستخدامه بشكل مسؤول، وضمان الامتثال للمبادئ والمعايير ذات الصلة.


12. مصطلحات الذكاء الاصطناعي في التعلم والبيانات

1. Supervised learning

التعلم تحت الإشراف. يقوم التعلم الخاضع للإشراف بتدريب خوارزميات التعلم الآلي على البيانات ذات التصنيفات، المعروفة باسم البيانات المنظمة.

2. Training data - بيانات التدريب

تشير بيانات التدريب إلى المعلومات أو الأمثلة المستخدمة لتدريب نموذج التعلم الآلي. تحتاج نماذج الذكاء الاصطناعي إلى مجموعة كبيرة من بيانات التدريب لتعلم الأنماط وتوجيه سلوكها.

3. Zero learning

هو أسلوب للتعلم الآلي حيث تراقب الخوارزميات العينات التي لم تكن موجودة في التدريب وتتنبأ بالفئة التي تنتمي إليها. على سبيل المثال، سيتم مطالبة مصنف الصور الذي تم تدريبه فقط على التعرف على القطط بتصنيف صورة أسد مع العلم ببعض المعلومات الإضافية - أن الأسود قطط كبيرة.

4. Confirm the validity of the data

التحقق من صحة البيانات هو عملية التحقق من جودة البيانات قبل استخدامها لتطوير نماذج الذكاء الاصطناعي وتدريبها.

5. Token - رمز مميز

الرمز المميز هو الوحدة الأساسية للنص الذي يستخدمه LLM لفهم اللغة وتوليدها. وقد تكون كلمة أو أجزاء من كلمة. تقوم شهادات LLM المدفوعة، مثل واجهة برمجة تطبيقات GPT-4، بفرض رسوم على المستخدمين عن طريق الرمز المميز.

6. Summoned - اِسْتَدْعَى

المطالبة هي مدخلات يرسلها المستخدم إلى نظام الذكاء الاصطناعي مع بعض النتائج المتوقعة. تنتج بعض الشركات، مثل GoDaddy وUproer، مكتبات سريعة لاستخدامها مع تطبيقات الذكاء الاصطناعي التوليدية، مثل ChatGPT.


13. مصطلحات الذكاء الاصطناعي في التعليم والتوعية والتدريب

1. AI Education and Literacy - الذكاء الاصطناعي التعليم ومحو الأمية

تعزيز التعليم والوعي ومحو الأمية حول تقنيات الذكاء الاصطناعي بين المستخدمين وواضعي السياسات وخبراء الصناعة وعامة الناس، لتعزيز فهم أفضل لمفاهيم الذكاء الاصطناعي وآثاره واعتباراته الأخلاقية، وتعزيز الاستخدام المسؤول والمستنير لتقنيات الذكاء الاصطناعي.

2. AI Education and Awareness - التعليم والتوعية بالذكاء الاصطناعي

تعزيز التعليم والوعي حول تقنيات الذكاء الاصطناعي وفوائدها المحتملة ومخاطرها واعتباراتها الأخلاقية بين مختلف أصحاب المصلحة، بما في ذلك المستخدمين وواضعي السياسات ومحترفي الصناعة وعامة الناس، لتعزيز اتخاذ القرارات المستنيرة والاستخدام المسؤول لتقنيات الذكاء الاصطناعي.

3. The teachers

تشير المعلمات في الذكاء الاصطناعي إلى الإعدادات الداخلية التي يتم تعلمها بواسطة نموذج التعلم الآلي أثناء عملية التدريب. تعمل المعلمات على زيادة نهج النموذج في التعرف على الأنماط.

4. AI Education and Training - التعليم والتدريب في مجال الذكاء الاصطناعي

توفير برامج التعليم والتدريب لأصحاب المصلحة المشاركين في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك ممارسي الذكاء الاصطناعي وواضعي السياسات والمنظمين والمستخدمين، لتعزيز فهمهم لتقنيات الذكاء الاصطناعي وآثارها الأخلاقية وأفضل الممارسات المسؤولة في تطوير واستخدام الذكاء الاصطناعي.

5. Unsupervised education

يقوم التعلم غير الخاضع للرقابة بتدريب خوارزميات التعلم الآلي على بيانات بدون تسميات، والمعروفة باسم البيانات غير المنظمة.


14. مصطلحات الذكاء الاصطناعي في التعاون والشراكات

1. AI Collaboration and Partnerships - التعاون والشراكات في مجال الذكاء الاصطناعي

إقامة تعاون وشراكات بين مختلف أصحاب المصلحة، بما في ذلك الأوساط الأكاديمية والصناعة والمجتمع المدني وواضعي السياسات، لتعزيز الجهود الجماعية في مواجهة تحديات حوكمة الذكاء الاصطناعي، وتبادل أفضل الممارسات، وتطوير حلول تعاونية لتطوير الذكاء الاصطناعي ونشره واستخدامه بشكل مسؤول.

2. AI International Cooperation - التعاون الدولي في مجال الذكاء الاصطناعي

تعزيز التعاون والتنسيق الدوليين بين مختلف البلدان والمناطق لوضع مبادئ ومبادئ توجيهية وأطار مشترك لحوكمة الذكاء الاصطناعي المسؤولة والأخلاقية، ولمواجهة التحديات العالمية المتعلقة بالذكاء الاصطناعي، بما في ذلك قضايا مثل خصوصية البيانات والأمن والعدالة والمساءلة.

3. AI Collaboration - التعاون في مجال الذكاء الاصطناعي

تعزيز التعاون بين أصحاب المصلحة، بما في ذلك الباحثين وواضعي السياسات والصناعة والمجتمع المدني والجمهور، لتعزيز النهج متعددة التخصصات وتبادل المعرفة والجهود المشتركة في مواجهة التحديات الأخلاقية والقانونية والاجتماعية والتكنولوجية لتقنيات الذكاء الاصطناعي، تطوير الحلول التي تعود بالنفع على البشرية جمعاء.

4. AI Global Cooperation - التعاون العالمي في مجال الذكاء الاصطناعي

تعزيز التعاون الدولي والتآزر بين أصحاب المصلحة، بما في ذلك الحكومات والمنظمات والخبراء، لمواجهة التحديات والآثار العالمية لتقنيات الذكاء الاصطناعي، بما في ذلك الجوانب الأخلاقية والقانونية والاجتماعية والتكنولوجية، ووضع معايير ومبادئ توجيهية مشتركة وأفضل الممارسات. ممارسات تطوير واستخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي.

5. AI International Collaboration - التعاون الدولي في مجال الذكاء الاصطناعي

تعزيز التعاون الدولي في مواجهة التحديات الأخلاقية والقانونية والاجتماعية والتكنولوجية لتقنيات الذكاء الاصطناعي، بما في ذلك تبادل المعرفة وأفضل الممارسات والخبرات، ووضع معايير ومبادئ توجيهية عالمية لتطوير الذكاء الاصطناعي ونشره واستخدامه بشكل مسؤول. ضمان اتباع نهج منسق وتعاوني تجاه تقنيات الذكاء الاصطناعي المسؤولة والأخلاقية على المستوى العالمي.

6. AI Technology Transfer - نقل تكنولوجيا الذكاء الاصطناعي

النقل المسؤول لتقنيات الذكاء الاصطناعي، بما في ذلك المعرفة والمهارات والقدرات، لضمان استخدام تقنيات الذكاء الاصطناعي بطريقة تتوافق مع المبادئ الأخلاقية وآليات الحوكمة والمتطلبات التنظيمية، عند نقلها عبر منظمات أو بلدان أو سياقات مختلفة.


15. مصطلحات الذكاء الاصطناعي والتصميم

1. AI Human-Centric Design - تصميم الذكاء الاصطناعي المرتكز على الإنسان

نهج تصميم تقنيات الذكاء الاصطناعي مع التركيز على احتياجات الإنسان وقيمه ورفاهيته، وضمان توافق أنظمة الذكاء الاصطناعي مع المصالح الإنسانية، واحترام حقوق الإنسان، وتعزيز القيم الإنسانية، لتجنب التحيزات أو الأذى الناجم عن التكنولوجيا.


16. مصطلحات الذكاء الاصطناعي  في التحيز والإدارة

1. AI Bias Detection - كشف التحيز بالذكاء الاصطناعي

عملية تحديد التحيزات في أنظمة الذكاء الاصطناعي، بما في ذلك التحيزات في البيانات والخوارزميات وعمليات صنع القرار، باستخدام تقنيات مثل التدقيق والمراقبة والاختبار، لاكتشاف التحيزات ومعالجتها وضمان تقنيات الذكاء الاصطناعي العادلة وغير المتحيزة.

2. AI Bias Prevention - الذكاء الاصطناعي منع التحيز

المنع الاستباقي للتحيزات في أنظمة الذكاء الاصطناعي، بما في ذلك معالجة التحيزات في جمع البيانات والمعالجة المسبقة وتصميم الخوارزميات، وتنفيذ تدابير لمنع دمج التحيزات في تقنيات الذكاء الاصطناعي، لضمان أنظمة ذكاء اصطناعي عادلة وغير متحيزة ومنصفة.

3. AI Crisis Management - الذكاء الاصطناعي لإدارة الأزمات

تطوير خطط واستراتيجيات الطوارئ لمعالجة الأزمات أو حالات الطوارئ المحتملة المتعلقة بتقنيات الذكاء الاصطناعي، بما في ذلك قضايا مثل انتهاكات البيانات أو فشل النظام أو التحيزات أو إساءة استخدام تقنيات الذكاء الاصطناعي، وتنفيذ تدابير للتخفيف من المخاطر وإدارة الأزمات بشكل فعال.


17. مصطلحات الذكاء الاصطناعي في التاريخ والتطور

1. Transcend history - تاريخ القطع

هو التاريخ الذي تنتهي فيه معلومات النموذج. لا تستطيع نماذج الذكاء الاصطناعي تذكر المعلومات بعد التاريخ المحدد. على سبيل المثال، الموعد النهائي لـ GPT-3.5 هو سبتمبر 2021.

2. Chatgpt - شات جي بي تي

شات جي بي تي هو برنامج دردشة آلي من OpenAI أحدث موجة من الاهتمام العام الموجه نحو نماذج اللغات الكبيرة والذكاء الاصطناعي التوليدي. ويستخدم الخوارزميات لإنتاج استجابات نصية لإدخال المستخدم باللغة الطبيعية.

3. شبكة الخصومة التوليدية - GAN

شبكة GAN هي نوع من التعلم الآلي يتكون من شبكتين عصبيتين: واحدة تولد البيانات والأخرى تميز البيانات وتنقيها. تتنافس الشبكتان العصبيتان لإنشاء تنبؤات أكثر دقة.

3. Transformer models

نماذج المحولات هي بنية نموذجية للذكاء الاصطناعي تستخدم في البرمجة اللغوية العصبية. النماذج القائمة على المحولات هي شبكات عصبية يمكنها معالجة السياق والتبعيات طويلة المدى في اللغة بشكل فريد.


18.مصطلحات الذكاء الاصطناعي في السياسة والقانون

1. AI Public Engagement - الذكاء الاصطناعي في المشاركة العامة

إشراك الجمهور في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك التماس المدخلات العامة، ودمج القيم ووجهات النظر العامة، وتعزيز ثقة الجمهور، لضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة تتماشى مع الاحتياجات المجتمعية. والقيم والتطلعات.

2. AI Public Policy - السياسة العامة لمنظمة العفو الدولية

تطوير السياسات العامة التي تعالج الآثار الأخلاقية والقانونية والاجتماعية والتكنولوجية لتقنيات الذكاء الاصطناعي، بما في ذلك السياسات المتعلقة بخصوصية البيانات، وتخفيف التحيز، والشفافية، والمساءلة، والحوكمة، لضمان تطوير الذكاء الاصطناعي ونشره واستخدامه بطريقة مسؤولة وخاضعة للمساءلة.

3. AI Policy Advocacy - الدعوة لسياسة الذكاء الاصطناعي

الدعوة للسياسات واللوائح والمعايير التي تعزز تطوير الذكاء الاصطناعي ونشره واستخدامه بشكل مسؤول وأخلاقي، بما في ذلك المشاركة في مناقشات السياسات، وتقديم مدخلات بشأن المبادرات التنظيمية، وتعزيز اعتماد آليات الحوكمة التي تضمن ممارسات الذكاء الاصطناعي المسؤولة والخاضعة للمساءلة.

4. AI Human Rights - منظمة العفو الدولية حقوق الإنسان

حماية وتعزيز حقوق الإنسان في سياق تقنيات الذكاء الاصطناعي، بما في ذلك الخصوصية وحرية التعبير وعدم التمييز والحق في الوصول إلى المعلومات، لضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة تدعم حقوق الإنسان وتحترم حقوق الإنسان.


19. مصطلحات الذكاء الاصطناعي "Ai" الأخرى

مصطلحات الذكاء الاصطناعي "Ai" الأخرى


1. AI Response to Disinformation - استجابة الذكاء الاصطناعي للمعلومات المضللة

تطوير تقنيات الذكاء الاصطناعي واستراتيجياته للتصدي لانتشار المعلومات الخاطئة والمضللة، بما في ذلك الأخبار المزيفة والتزييف العميق والاستخدام الضار للذكاء الاصطناعي، لضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بشكل مسؤول، ولا تساهم في إحداث تأثيرات ضارة على المجتمع والديمقراطية، والخطاب العام.

2. AI Disaster Preparedness - الذكاء الاصطناعي التأهب للكوارث

دمج تقنيات الذكاء الاصطناعي في جهود التأهب والاستجابة للكوارث، بما في ذلك أنظمة الإنذار المبكر، وتقييم المخاطر، وإدارة الكوارث، والتعافي بعد الكوارث، لتحسين عملية صنع القرار، والحد من الخسائر البشرية، والتخفيف من تأثير الكوارث الطبيعية وحالات الطوارئ الأخرى.

3. Reinforcement Learning - تعزيز التعلم

نوع من التعلم الآلي يتضمن تعلم الوكيل لاتخاذ القرارات واتخاذ الإجراءات في بيئة لتعظيم إشارة المكافأة، وغالبًا ما يستخدم في الأنظمة المستقلة والروبوتات.

4. Algorithm - الخوارزمية

مجموعة من التعليمات أو القواعد التي يتبعها الكمبيوتر لحل مشكلة معينة أو أداء مهمة معينة.

5. Artificial General Intelligence - الذكاء العام الاصطناعي (AGI)

المفهوم الافتراضي للذكاء الاصطناعي الذي يمتلك القدرة على الفهم والتعلم وتطبيق الذكاء عبر مجموعة واسعة من المهام، على غرار الذكاء البشري.

6. Explainable AI - الذكاء الاصطناعي القابل للتفسير (XAI)

مجال الذكاء الاصطناعي الذي يركز على تطوير أنظمة الذكاء الاصطناعي التي تتسم بالشفافية ويمكن أن تقدم تفسيرات مفهومة لتنبؤاتها أو قراراتها، لتعزيز الثقة والمساءلة وقابلية التفسير.

7. Human in the Loop - الإنسان في الحلقة (HITL)

نهج في الذكاء الاصطناعي حيث يتم دمج المدخلات البشرية وردود الفعل في التدريب النموذجي أو عملية صنع القرار لنظام الذكاء الاصطناعي، وغالبًا ما يستخدم لتحسين أداء النموذج، وتخفيف التحيز، وضمان الاعتبارات الأخلاقية. وغالبًا ما يستخدم في تطبيقات مثل اتخاذ القرار بمساعدة الذكاء الاصطناعي، والتعاون بين الإنسان والذكاء الاصطناعي، والتوصيات القائمة على أنظمة الذكاء الاصطناعي.

8. Hyperparameters - المعلمات الفائقة

المعلمات الموجودة في نموذج التعلم الآلي التي يتم تعيينها قبل عملية التدريب وتؤثر على أداء النموذج، مثل معدل التعلم وحجم الدفعة وعدد الطبقات.

9. Overfitting - التجهيز الزائد

ظاهرة في التعلم الآلي حيث يؤدي النموذج أداءً جيدًا على بيانات التدريب ولكنه يفشل في التعميم على البيانات الجديدة غير المرئية، وغالبًا ما يحدث ذلك بسبب كون النموذج معقدًا للغاية أو عدم كفاية بيانات التدريب.

10. Feature Engineering - هندسة الميزات

عملية اختيار أو تحويل أو إنشاء الميزات أو المتغيرات ذات الصلة من البيانات الأولية لتحسين أداء نموذج التعلم الآلي.

11. Preprocessing - المعالجة المسبقة

خطوة في التعلم الآلي تتضمن تنظيف البيانات الأولية أو تطبيعها أو تحويلها إلى تنسيق يمكن استخدامه للتدريب النموذجي، وغالبًا ما يتضمن مهام مثل تنظيف البيانات وقياس الميزات وترميز البيانات.

12. Explainable AI - الذكاء الاصطناعي القابل للتفسير (XAI)

مجال الذكاء الاصطناعي الذي يهدف إلى تطوير نماذج وأنظمة يمكنها تقديم تفسيرات مفهومة وقابلة للتفسير لتنبؤاتها أو قراراتها، مما يعزز الثقة والمساءلة والشفافية.

13. Reinforcement Learning - تعزيز التعلم

نوع من التعلم الآلي حيث يتعلم الوكيل كيفية اتخاذ القرارات أو اتخاذ إجراءات في بيئة لتعظيم إشارة المكافأة التراكمية، وغالبًا ما يستخدم في مجالات مثل الروبوتات وممارسة الألعاب والأنظمة المستقلة.

14. Transfer Learning - نقل التعلم

اسلوب في التعلم الآلي حيث يتم استخدام نموذج تم تدريبه مسبقًا، والذي يتم تدريبه عادةً على مجموعة بيانات كبيرة، كنقطة بداية لتدريب نموذج جديد على مجموعة بيانات أصغر ذات صلة، مما يسمح بتدريب النموذج بشكل أسرع وأكثر فعالية.

15. Unsupervised Learning - التعلم غير الخاضع للرقابة

نوع من التعلم الآلي حيث يتعلم النموذج من البيانات غير المسماة، دون أي إشراف صريح أو أمثلة مصنفة، وغالبًا ما يستخدم لمهام مثل التجميع واكتشاف الحالات الشاذة وتقليل الأبعاد.

16. Natural Language Processing - معالجة اللغات الطبيعية (NLP)

مجال الذكاء الاصطناعي الذي يركز على تمكين أجهزة الكمبيوتر من فهم وتفسير وإنشاء اللغة البشرية، وغالبًا ما تستخدم في تطبيقات مثل تحليل النصوص، وتحليل المشاعر، والترجمة الآلية، وروبوتات الدردشة.

17. Deep Learning - التعلم العميق

حقل فرعي من التعلم الآلي يتضمن تدريب الشبكات العصبية الاصطناعية ذات طبقات متعددة لتعلم التمثيل الهرمي للبيانات تلقائيًا، وغالبًا ما يستخدم في مجالات مثل التعرف على الصور والكلام، ومعالجة اللغة الطبيعية، وأنظمة التوصية.

18.Embodied agents  - وكلاء مجسمة

يشار إليهم أيضًا باسم الذكاء الاصطناعي المتجسد، هم عملاء ذكاء اصطناعي لديهم جسد مادي يؤدون مهام محددة في البيئة المادية.

19. GIGO - القمامة داخل والقمامة خارج

GIGO هو مفهوم في علوم الكمبيوتر ينص على أن جودة مخرجات النظام تعتمد على جودة المدخلات. إذا كان المدخل سلة المهملات، فسيكون المخرج سلة المهملات. بمعنى إذا تم تدريب الذكاء الاصطناعي على بيانات منخفضة الجودة، فيمكن للمستخدم أن يتوقع أن تكون نتائجه رديئة أيضًا.

20. AI Fairness - عدالة الذكاء الاصطناعي

مفهوم التأكد من أن أنظمة الذكاء الاصطناعي لا تميز ضد أي مجموعة أو فرد معين، وأنها مصممة ومدربة لتكون عادلة وغير متحيزة ومنصفة في عمليات صنع القرار الخاصة بها، لمنع التمييز أو إدامة التحيزات المجتمعية.

21. AI Robustness - قوة الذكاء الاصطناعي

مرونة أنظمة الذكاء الاصطناعي في مواجهة الهجمات العدائية والأخطاء والمدخلات غير المتوقعة، مما يضمن أن تقنيات الذكاء الاصطناعي موثوقة ودقيقة وقادرة على التعامل مع سيناريوهات العالم الحقيقي دون المساس بأدائها أو سلامتها.

22. Dall-E- إطار حوكمة الذكاء الاصطناعي

دال-E هو منشئ الصور الذي يعمل بالذكاء الاصطناعي من OpenAI. يرسل المستخدمون مطالبة نصية، وتقوم أداة الذكاء الاصطناعي بإنشاء صورة مقابلة.

23. AI Algorithmic Transparency - الشفافية الخوارزمية لمنظمة العفو الدولية

رؤية وفهم الخوارزميات المستخدمة في أنظمة الذكاء الاصطناعي، مما يسمح للمستخدمين وأصحاب المصلحة بفهم كيفية اتخاذ القرارات والإجراءات بواسطة نظام الذكاء الاصطناعي، وتمكين المساءلة والعدالة والجدارة بالثقة.

24. Appearance of

يصف الظهور القدرات التي تنشأ في أنظمة الذكاء الاصطناعي بشكل غير متوقع عندما تصبح أكثر تعقيدًا. الخصائص الناشئة للنظام لا يمكن ملاحظتها في أجزائه الفردية.

25. AI Regulation - تنظيم الذكاء الاصطناعي

تطوير وإنفاذ الأطر القانونية والتنظيمية التي تحكم تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، مما يضمن استخدام أنظمة الذكاء الاصطناعي بما يتوافق مع القوانين واللوائح والمعايير الأخلاقية ذات الصلة، وتخفيف المخاطر والأضرار المحتملة.

26. OpenAI

OpenAI هي شركة ذكاء اصطناعي أمريكية. وهي تجري أبحاثًا حول الذكاء الاصطناعي وقد طورت العديد من نماذج وخدمات الذكاء الاصطناعي، بما في ذلك GPT-3 وChatGPT وDall-E.

27. AI Fairness - عدالة الذكاء الاصطناعي

المبدأ القائل بوجوب تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة عادلة وغير متحيزة، دون التمييز ضد الأفراد أو المجموعات على أساس عوامل مثل العرق أو الجنس أو العمر أو الدين، لتعزيز المساواة الاجتماعية ومنع النتائج التمييزية.

28. AI Validation and Verification - التحقق من صحة الذكاء الاصطناعي والتحقق منه

عملية التحقق من دقة وموثوقية وفعالية تقنيات الذكاء الاصطناعي، بما في ذلك الاختبار والتحقق من الخوارزميات والنماذج والبيانات المستخدمة في أنظمة الذكاء الاصطناعي، لضمان أدائها وفعاليتها في سيناريوهات العالم الحقيقي.

29. AI Compliance and Auditing - الامتثال والتدقيق في مجال الذكاء الاصطناعي

ممارسة ضمان امتثال تقنيات الذكاء الاصطناعي للقوانين واللوائح والمعايير الأخلاقية ذات الصلة، وإجراء عمليات تدقيق وتقييمات منتظمة للتحقق من الامتثال وتحديد المخاطر ومعالجة المشكلات المتعلقة بالاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي.

30. AI Adoption and Impact Assessment - اعتماد الذكاء الاصطناعي وتقييم الأثر

تقييم اعتماد وتأثير تقنيات الذكاء الاصطناعي على المجتمع، بما في ذلك تقييم الآثار المجتمعية والاقتصادية والثقافية لتقنيات الذكاء الاصطناعي، وتحديد وتخفيف المخاطر والأضرار المحتملة المرتبطة باستخدامها.

31. AI Standards - معايير الذكاء الاصطناعي

تطوير واعتماد معايير على مستوى الصناعة لتقنيات الذكاء الاصطناعي، بما في ذلك معايير خصوصية البيانات والشفافية الخوارزمية والعدالة والمساءلة والأمن، لتعزيز التطوير المسؤول والأخلاقي ونشر واستخدام تقنيات الذكاء الاصطناعي.

32. AI Explainability and Interpretability - الذكاء الاصطناعي قابلية الشرح وقابلية التفسير

الحاجة إلى أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير، مما يسمح للمستخدمين وأصحاب المصلحة بفهم كيفية اتخاذ تقنيات الذكاء الاصطناعي للقرارات، والخوارزميات الأساسية، والسبب الكامن وراء مخرجاتها، لتعزيز الثقة والمساءلة والشفافية في أنظمة الذكاء الاصطناعي.

33. AI Bias Mitigation - تخفيف تحيز الذكاء الاصطناعي

التخفيف النشط من التحيزات في تقنيات الذكاء الاصطناعي، بما في ذلك المراقبة المنتظمة والتقييم وتخفيف التحيزات في البيانات والخوارزميات وعمليات صنع القرار، لضمان أن أنظمة الذكاء الاصطناعي لا تؤدي إلى إدامة النتائج التمييزية أو المتحيزة، وتعزيز العدالة والإنصاف.

34. AI Accountability Mechanisms - آليات مساءلة الذكاء الاصطناعي

إنشاء آليات لمساءلة أصحاب المصلحة عن تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك أطر المساءلة وآليات الإبلاغ وتدابير الإنفاذ، لضمان ممارسات مسؤولة وأخلاقية في مجال الذكاء الاصطناعي، ومعالجة أي انتهاكات.

35. AI Policy Advocacy - الدعوة لسياسة الذكاء الاصطناعي

الدعوة للسياسات واللوائح والمعايير التي تعزز تطوير الذكاء الاصطناعي ونشره واستخدامه بشكل مسؤول وأخلاقي، بما في ذلك المشاركة في مناقشات السياسات، وتقديم مدخلات بشأن المبادرات التنظيمية، وتعزيز اعتماد آليات الحوكمة التي تضمن ممارسات الذكاء الاصطناعي المسؤولة والخاضعة للمساءلة.

36. AI Human-Centric Approach - نهج الذكاء الاصطناعي المرتكز على الإنسان

اعتماد نهج يركز على الإنسان في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، مما يضمن أن فوائد تقنيات الذكاء الاصطناعي تتماشى مع القيم و الاحتياجات و التطلعات البشرية، وأن تقنيات الذكاء الاصطناعي يتم تطويرها واستخدامها بطريقة تحترم كرامة الإنسان، وتعزز الرفاهية، وتدعم حقوق الإنسان.

37. AI Trustworthiness - الجدارة بالثقة لمنظمة العفو الدولية

بناء الثقة في تقنيات الذكاء الاصطناعي من خلال تنفيذ تدابير مثل عمليات التدقيق والاعتماد والتحقق من قبل طرف ثالث، لضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة جديرة بالثقة، مع الالتزام بالمبادئ الأخلاقية وأفضل الممارسات، والمتطلبات التنظيمية.

38. AI User Empowerment - تمكين مستخدم الذكاء الاصطناعي

تمكين مستخدمي الذكاء الاصطناعي بالمعرفة والمهارات والأدوات اللازمة لفهم تقنيات الذكاء الاصطناعي وتقييمها والتفاعل معها، بما في ذلك توفير واجهات سهلة الاستخدام وتفسيرات واضحة لوظائف الذكاء الاصطناعي والوصول إلى المعلومات حول استخدام البيانات وعمليات صنع القرار. لضمان قدرة المستخدمين على اتخاذ قرارات مستنيرة والتحكم في تفاعلاتهم مع تقنيات الذكاء الاصطناعي.

39. AI Inclusivity - شمولية الذكاء الاصطناعي

تعزيز الشمولية في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك معالجة التحيزات والتمييز وعدم المساواة في أنظمة الذكاء الاصطناعي، وضمان إمكانية الوصول إلى تقنيات الذكاء الاصطناعي ومفيدة لجميع الأفراد، بغض النظر عن جنسهم أو عرقهم أو عمرهم أو الدين أو الإعاقة أو أي خاصية أخرى، لضمان نتائج عادلة ومنصفة.

40. AI Accountability - مساءلة الذكاء الاصطناعي

إنشاء آليات لمساءلة المطورين والمستخدمين وأصحاب المصلحة الآخرين عن التطوير الأخلاقي ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك آليات الإبلاغ والتحقيق والتعويض عن أي أضرار ناجمة عن تقنيات الذكاء الاصطناعي، لضمان أن الممارسات المسؤولة يتم التمسك بها، ويتم الحفاظ على المساءلة.

41. AI for Social Good - الذكاء الاصطناعي من أجل الصالح الاجتماعي

تشجيع استخدام تقنيات الذكاء الاصطناعي لتحقيق الصالح الاجتماعي، بما في ذلك معالجة التحديات العالمية مثل الفقر والجوع والتفاوتات الصحية والتعليم وتغير المناخ والاستدامة، لتسخير إمكانات الذكاء الاصطناعي لتحقيق تأثير مجتمعي إيجابي ولضمان مساهمة تقنيات الذكاء الاصطناعي إلى رفاهية جميع الأفراد والمجتمعات.

42. AI Continuous Monitoring and Improvement - المراقبة والتحسين المستمر للذكاء الاصطناعي

تنفيذ عمليات المراقبة والتحسين المستمر لتقنيات الذكاء الاصطناعي، بما في ذلك التقييم المنتظم والتدقيق وحلقات التغذية الراجعة، لتحديد وتصحيح أي مخاوف أخلاقية أو تحيزات أو عواقب غير مقصودة قد تنشأ أثناء تطوير تقنيات الذكاء الاصطناعي ونشرها واستخدامها. لضمان التحسين المستمر والتطوير المسؤول للذكاء الاصطناعي.


سيتم تحديث المقال مع الوقت لضمان ضم أكبر عدد من مصطلحات الذكاء الاصطناعي - Artificial Intelligence Terminology. لذلك ضع إشارة مرجعية على المقال حتى يمكن الرجوع له في المستقبل.


التطبيقات العملية - Practical Applications

يستخدم الذكاء الاصطناعي  "Ai" في العديد من المجالات ، بما في ذلك:

الروبوتات الذكية - Smart Robots: تستخدم الروبوتات الذكية الذكاء الاصطناعي لاتخاذ قرارات ذكية والتفاعل مع البيئة والبشر.

مساعدات صوتية - Voice Assistants: تعتمد المساعدات الصوتية مثل Siri و Alexa و Google Assistant على الذكاء الاصطناعي لفهم أوامر المستخدمين وتوفير إجابات دقيقة وفعالة.

تشخيص الامراض - Disease Diagnosis: يمكن للذكاء الاصطناعي تحليل البيانات الطبية وتقديم تشخيص فوري ودقيق للأمراض المختلفة.


مع تقدم التكنولوجيا، يصبح الذكاء الاصطناعي جزءًا متزايدًا من حياتنا اليومية. ومع ذلك، يتطلب فهمه واستخدامه بشكل صحيح معرفة واسعة ورؤية ثاقبة. نأمل أن يكون هذا المقال قد ساعدك في فهم الذكاء الاصطناعي بشكل أفضل وكيف يمكننا استخدامه لتحسين حياتنا.


وفي الختام. حول فهم مفهوم الذكاء الاصطناعي (Ai)

الذكاء الاصطناعي يعتبر مجالًا شيقًا ومثيرًا للاهتمام يعيد تشكيل العديد من الصناعات. تعلم الآلة والشبكات العصبية الاصطناعية والتعلم العميق هي مفاهيم أساسية في هذا المجال.

من خلال تطبيقاته العملية، يمكن للذكاء الاصطناعي تحقيق تطور مذهل في المجتمع. هناك العديد من الفرص والتحديات المتعلقة بهذا المجال، ومستقبل الذكاء الاصطناعي واعد ومثير للاهتمام.

إذا أعجبك هذا المقال، يرجى مشاركته مع أصدقائك ومساعدتنا في نشر الكلمة.
تعليقات



    حجم الخط
    +
    16
    -
    تباعد السطور
    +
    2
    -