أصبح البحث في مجال التعلم الآلي داخل شركة Apple أحد قطع أساسية لفهم كيفية تطور الذكاء الاصطناعي عندما يُطرح للجمهور. لا نتحدث هنا عن نماذج سحابية مذهلة فحسب، بل عن ذكاء اصطناعي يعمل على جهاز iPhone أو iPad أو Mac أو Apple Watch، ويعمل مباشرةً على الجهاز مع تركيز شبه كامل على الخصوصية.
في هذه المقالة سوف نقوم بشرح كيفية عملها حقًا أبحاث التعلم الآلي من Apple ونظام Apple Intelligence البيئي: ما هي التقنيات التي يستخدمونها، وما هي الأطر التي لديك كمطور، وكيف يتم تنظيم البحث الداخلي، تعيين أمار سوبرامانياما دور أجهزة ماك مع معالجات آبل، ولماذا تُصرّ الشركة بشدة على مفاهيم مثل "المعالجة على الجهاز" أو "الحوسبة السحابية الخاصة"؟ لا تقلق، سنغطي كل شيء بالتفصيل. لنبدأ بدليل شامل حول... أبحاث التعلم الآلي في Apple: هكذا تقوم Apple بالبحث في مجال الذكاء الاصطناعي والتعلم الآلي.
ذكاء أبل: رهان أبل على الذكاء الاصطناعي الشخصي والخاص

أطلقت شركة أبل على مظلتها الجديدة من ميزات الذكاء الاصطناعي اسم Apple Intelligence، نظام ذكاء شخصي يتكامل مع أنظمة iOS وiPadOS وmacOS وغيرها من المنصات. الفكرة واضحة: يتفهم الذكاء الاصطناعي سياقك وأولوياتك وبياناتك، دون أن تضطر إلى التنازل عن خصوصيتك.
في الممارسة العملية، يمكن ملاحظة ذكاء Apple في الوظائف اليومية مثل فرز الإشعارات ورسائل البريد الإلكتروني وفقًا لما يهمك حقًاأعد كتابة النصوص أو صححها أو لخّصها باستخدام أدوات الكتابة، أو أنشئ صورًا بسهولة من داخل النظام. كل هذا مدعوم بنماذج أساسية قوية مُحسّنة للعمل على الجهاز.
من الغريب أن شركة أبل قررت أن نظامها إن توليد الصور لا يخلق صورًا واقعية للأشخاصستكون الأنماط أكثر توضيحية أو إبداعًا، كطريقة للحد من استخدام التزييف العميق وغيره من الانتهاكات الشائعة في الذكاء الاصطناعي التوليدي.
كما قامت الشركة أيضًا بدمج الذكاء الاصطناعي في وظائف محددة للغاية، مثل تحرير الصور الذكي لإزالة العناصر غير المرغوب فيها، تحسين الملاحظات المكتوبة بخط اليد على جهاز iPad (تصحيح خط يدك بمساعدة التعلم الآلي)، أو إنشاء الرسوم التوضيحية من الرسومات السريعة في المفكرة الرقمية الخاصة بك.
الخصوصية القصوى: الذكاء الاصطناعي على الجهاز والحوسبة السحابية الخاصة
أحد أكبر هواجس شركة Apple هو أن الذكاء الاصطناعي يعمل، كلما أمكن ذلك، مباشرة على الجهاز لتوفير أقصى قدر من الحماية للبيانات الشخصيةعندما تتحدث شركة Apple عن Apple Intelligence، فإنها تصر على أن النظام "يعرف معلوماتك، لكنه لا يحتفظ بها".
وهذا يعني أن العديد من وظائف النص أو الصوت أو الصورة أو السياق تستخدم نماذج تعمل على جهاز iPhone أو iPad أو Mac، بالاعتماد على شريحة السيليكون من Apple وNeural Engine. يلجأ إلى السحابة فقط عندما يكون هناك حاجة إلى مزيد من الطاقة أو الذاكرة.وهنا يأتي دور الحوسبة السحابية الخاصة.
تسمح الحوسبة السحابية الخاصة بتشغيل عمليات معينة في خوادم مزودة بشرائح Apple، مصممة خصيصًا لمعالجة بياناتك بشكل معزول واحذف هذه المعلومات عند انتهاء المهمة. وتتعهد Apple بأنه حتى في هذه الحالات، لن تُنشئ ملفات تعريف شخصية أو تربط البيانات بهويتك.
وتمتد هذه الفلسفة أيضًا إلى وظائف محددة مثل النسخ الفوري للمكالمات أو التسجيلات الصوتية. تتم معالجة المحادثات لإنشاء نصوص وملخصاتولكن مع الحفاظ دائمًا على مبدأ عدم عرض محتواها أكثر من اللازم وإخطار المشاركين عند نسخ المكالمة.
الأساسيات التقنية: نماذج الأساس وواجهات برمجة التطبيقات عالية المستوى
في قلب Apple Intelligence يوجد نماذج الأساس، ونماذج اللغة الكبيرة، والنماذج متعددة الوسائط مُصمم لمجموعة متنوعة من المهام اليومية: تلخيص المعلومات، واستخراجها، وتصنيفها، وإنشاء نص منظم، أو إجراء الحوارات.
أنشأت شركة Apple هيكل تطوير جديد يسمى نماذج المؤسسة الذي يوفر وصولاً برمجيًا إلى نماذج LLM المُحسّنة للأجهزة. بالنسبة للمطور، يمكن اختصار التجربة إلى ثلاثة أسطر برمجية: استيراد البنية، وإنشاء جلسة، وإرسال مُطالبة إلى النموذج.
بالإضافة إلى إنشاء نص عادي، يدعم الهيكل ما يسمى الجيل الموجهببساطة، يمكنك تعريف أنواع البيانات في تطبيقك وتمييزها بأنها "قابلة للتوليد"، مع إضافة أوصاف بلغة طبيعية وقيود قيم. بعد ذلك، يقوم النموذج بملء هياكلك مباشرةً، دون الحاجة إلى عناء استخدام JSON أو المخططات اليدوية.
القدرة الرئيسية الأخرى هي استدعاء الأدواتبدلاً من مجرد إنتاج نص، يستطيع النموذج تحديد وقت استدعاء الوظائف التي تُعرّفها: التحقق من البيانات الآنية، أو قراءة التقويم، أو الوصول إلى معلومات التطبيق، أو تنفيذ إجراء نظامي. هذا يُوسّع معرفة النموذج لتتجاوز ما كان يعرفه وقت تدريبه.
ومع ذلك، تجدر الإشارة إلى أن هذه النماذج على الجهاز ليس لديهم قدر كبير من المعرفة أو البيانات المحدثة مثل النموذج الضخم في مركز البياناتإن تدريبهم متجمد في الوقت المناسب، لذلك بالنسبة للحالات التي تتطلب معلومات جديدة أو محددة للغاية، فمن المستحسن استكمالها بمصادر خارجية باستخدام أدوات أو خدمات تعتمد على السحابة.
واجهات برمجة تطبيقات Apple المدعومة بالتعلم الآلي

بالإضافة إلى نماذج الأساس، قامت شركة Apple منذ سنوات بدمج واجهات برمجة التطبيقات المتخصصة المدعومة بالتعلم الآلي لمهام محددة، غالبًا باستخدام بضعة أسطر من التعليمات البرمجية فقط.
في مجال رؤية الكمبيوتر هناك الرؤيةمع أكثر من 30 واجهة برمجة تطبيقات لفهم الصور والفيديو: اكتشاف الوجه، وتتبع الكائنات، والتصنيف، والتعرف على النص، وما إلى ذلك. في الإصدارات الأخيرة، أضافت Vision تحسينات رئيسية مثل التعرف على المستندات بشكل أكثر ذكاءً (تجميع الفقرات والعناوين والجداول...) وطريقة لـ كشف بقعة العدسة الذي يحدد الأوساخ التي يمكن أن تدمر الصورة.
بالنسبة للنص واللغة الطبيعية، تقدم Apple اللغة الطبيعيةالذي يسمح لك بتحديد اللغة، وتفكيك الجمل، وتصنيف أجزاء الكلام، والكشف عن الكيانات المسماة (الأشخاص، الأماكن، المنظمات، إلخ). يوجد أيضًا إطار العمل خدمات ترجمة، يركز على ترجمة النصوص بين لغات متعددة، وهو مفيد جدًا عندما تريد تقديم تجارب متعددة اللغات دون الاعتماد دائمًا على الخدمات الخارجية.
في الصوت والصورة هناك عنصرين مهمين: تحليل الصوت، لتصنيف فئات الصوت (صافرات الإنذار، خطوات الأقدام، الأصوات المحيطة، وما إلى ذلك)، و خطاببالنسبة للتعرف على الكلام ونسخه، تطور الكلام من SFSpeechRecognizer، المصمم في المقام الأول للإملاءات القصيرة، إلى واجهة برمجة التطبيقات الجديدة محلل الكلاممُصمم لتوفير صوت أطول وأكثر مرونة.
يعمل SpeechAnalyzer مباشرة مع مخازن الصوت التي يتم تحويلها إلى نموذج جديد لتحويل الكلام إلى نص أسرع وأكثر مرونة، مثالي للمؤتمرات والاجتماعات والبودكاست والمحادثات عن بُعد. كل هذا لا يزال يتم بشكل أساسي على الجهاز، وهو ما يتماشى تمامًا مع تركيز Apple على الخصوصية.
واجهات برمجة التطبيقات التوليدية للنظام: الصور والاستجابات الذكية والمزيد
إحدى أسهل الطرق لإضافة الذكاء الاصطناعي التوليدي إلى تطبيقاتك هي الاعتماد على واجهات برمجة التطبيقات (APIs) مدمجة بالفعل في نظام التشغيل، دون الحاجة إلى الاتصال بخدمات خارجية أو إدارة مفاتيح الطرف الثالث.
على سبيل المثال، بدءًا من نظام التشغيل iOS 18.4، الإطار ملعب الصور يتضمن الفصل منشئ الصورالتي تمكن إنشاء الصور باستخدام الكود بدءًا من نص وصفي وأسلوب، يمكنك إنشاء مثيل للمنشئ وإرسال المطالبة وتلقي الاختلافات التي يمكنك بعد ذلك عرضها أو دمجها كما يحلو لك في تطبيقك.
في مجال المراسلة، قامت شركة Apple بدمج واجهة برمجة التطبيقات الخاصة بـ الرد الذكي، مما يتيح الاستجابات الذكية التي تم إنشاؤها من لوحة المفاتيح استخدام سياق المحادثة. لاستخدامه، يُوفر التطبيق سياق محادثة (للرسائل أو البريد الإلكتروني) قبل ظهور لوحة المفاتيح، وتُعرض اقتراحات للمستخدم كبدائل سريعة.
في محادثات المراسلة الفورية، تُدرج الاستجابة المختارة مباشرةً في المحادثة. أما في تطبيقات البريد الإلكتروني، فيتم تفويضها إلى طريقة مثل إدراج اقتراح الإدخالالسماح للتطبيق بإنشاء استجابات أطول أو أكثر تخصيصًا استنادًا إلى هذا الاقتراح الأولي.
يتم "توريث" العديد من هذه القدرات تلقائيًا تقريبًا عند استخدام عناصر التحكم في واجهة النص القياسية من النظام: إذا كان تطبيقك يعرض textViews الأصلية أو حقول الكتابة، فإن Apple Intelligence يقوم بتنشيط Writing Tools أو Genmoji أو Image Playground مع القليل من الإعداد الإضافي أو بدونه.
كيفية تدريب النماذج وتكييفها: Core ML، وإنشاء ML والأدوات المرتبطة بها
عندما تفشل واجهات برمجة التطبيقات عالية المستوى، يمكن للمطورين اللجوء إلى Core ML، الإطار الأساسي لنشر نماذج التعلم الآلي على أجهزة Appleيعمل Core ML مع النماذج بتنسيقه الخاص الذي يصف المدخلات والمخرجات والهندسة المعمارية والأوزان المكتسبة.
تحتفظ Apple بهذه المعلومات على developer.apple.com كتالوج النماذج المفتوحة التي تم تحويلها بالفعل إلى Core MLمُرتبة حسب الفئة، مع وصف للقدرات والمتغيرات ومعلومات الأداء المُقدّرة على مختلف الأجهزة. بالإضافة إلى ذلك، تتعاون Apple مع المجتمع من خلال مساحتها على وجه يعانقحيث يتم نشر النماذج وتعريفات PyTorch وتدفقات التدريب والضبط.
لتحويل النماذج من الأطر مثل PyTorch أو TensorFlow إلى تنسيق Core ML، هناك أدوات ML الأساسيةهذه مجموعة من الأدوات التي لا تقتصر على ترجمة البنية، بل تُطبّق أيضًا تحسينات للتنفيذ على شريحة Apple. وتشمل هذه التحسينات دمج العمليات، وإزالة الحسابات المكررة، وتقنيات الضغط مثل التكميم، والتقليم، وتعديلات ما بعد التدريب.
تعتبر تقنيات الضغط هذه اختيارية وتسمح لك باستكشاف طرق مختلفة التوازن بين حجم النموذج والأداء والدقةيمكنك تجربة تكوينات أخف للأجهزة ذات الذاكرة الأقل، أو نماذج أثقل ولكن أكثر دقة للبيئات ذات الموارد الأكثر.
بالنسبة لأولئك الذين لا يريدون القفز إلى الكود منخفض المستوى على الفور، تقدم Apple إنشاء ML، وهو تطبيق وإطار عمل يسمح لك بتدريب نماذج مخصصة باستخدام بيانات خاصة. من مُصنِّف صور يتكامل مع Vision إلى مُعَلِّمات نصية مُخصصة للغة الطبيعية، بما في ذلك نماذج تُوسِّع قدرات Vision Pro لتتبع الكائنات في نطاق 6 درجات حرية في التجارب المكانية.
Xcode، النشر والأداء للنماذج على Apple Silicon
بمجرد تحويل نموذجك أو تدريبه بتنسيق Core ML، يصبح Xcode مركز التحكم لديك. يسمح لك IDE فحص الميزات الرئيسية للنموذجاستكشف هيكلها الكامل وقم بقياس أدائها على الأجهزة المحددة المتصلة بجهاز Mac.
من Xcode يمكنك أن ترى تقدير زمن انتظار التنبؤ، وأوقات التحميل، والمكان الذي يتم فيه تنفيذ كل عملية (وحدة المعالجة المركزية، أو وحدة معالجة الرسومات، أو المحرك العصبي). توفر الإصدارات الأحدث عرضًا بيانيًا للبنية الكاملة، حيث يُمكن التعمق في كل عملية واكتشاف الاختناقات أو فرص التحسين.
من خلال دمج النموذج في مشروعك، Xcode يُنشئ واجهة نوع آمنة في Swift خاصة بهذا النموذجهذا يُبسّط شيفرة الاستدلال بشكل كبير. فبدلاً من التعامل مع موترات عامة، ستستخدم أنواعًا أكثر وصفًا وأمانًا أثناء التجميع.
في وقت التشغيل، يقوم Core ML بتوزيع الحمل بين وحدة المعالجة المركزية ووحدة معالجة الرسومات والمحرك العصبي تلقائيًا، سعيًا لتحقيق أقصى استفادة من إمكانيات الشريحة. هذا يسمح حتى للنماذج الكبيرة نسبيًا بالعمل بزمن وصول معقول واستهلاك منخفض للطاقة.
عندما تحتاج إلى تحكم أدق في التنفيذ، فإن الأطر ذات المستوى الأدنى مثل المعدن والتسارع/BNNSGraphالتي تسمح لك بربط نماذج Core ML بأحمال رسومية مخصصة أو معالجة إشارات في الوقت الفعلي مع التحكم الصارم في الذاكرة والزمن الكامن.
MLX: تجربة نماذج كبيرة على نظام Mac مع معالج Apple silicon
في مجال الأبحاث المتطورة، أطلقت شركة أبل MLX، إطار عمل للحوسبة العددية والتعلم الآلي تم تصميمه من قبل الباحثين الخاصين به وتم توزيعه كمشروع مفتوح المصدر.
تم تصميم MLX بحيث يمكن للمطورين والعلماء استكشاف وتشغيل نماذج اللغة الكبيرة (LLM) والهندسة المعمارية المتقدمة الأخرى يعمل بكفاءة على أجهزة ماك المزودة بمعالجات Apple silicon. يسمح باختبار تقنيات استدلال جديدة، أو ضبط دقيق، أو تدريب موزع دون الاعتماد دائمًا على مجموعات خارجية كبيرة.
بفضل دعمها لـ هندسة الذاكرة الموحدة لـ Apple Siliconيعتمد MLX على نموذج برمجة خاص للغاية: لا ترتبط المصفوفات بجهاز محدد؛ بل إن العمليات هي التي تقرر ما إذا كان سيتم تنفيذها على وحدة المعالجة المركزية أو وحدة معالجة الرسومات، مع القدرة على العمل بالتوازي على نفس المخزن المؤقت دون نسخ إضافية.
من سطر الأوامر يمكنك تشغيل استدلال LLM أحادي الدرجةعلى سبيل المثال، يُمكن استخدامه لإنشاء أكواد برمجية، أو تصنيف نصوص، أو إنشاء مُلخصات ذات سياقات طويلة (1.024 رمزًا أو أكثر). علاوةً على ذلك، يُقدم مُجتمع MLX على Hugging Face مئات القوالب المُعدّلة، الجاهزة للاستخدام بسطر برمجي واحد فقط.
MLX متوفر في بايثون، سويفت، سي++ وسيويعمل المجتمع على إنشاء روابط لمزيد من اللغات، مما يُسهّل دمجها في مختلف المشاريع. بالنسبة للعاملين في أبحاث الذكاء الاصطناعي، تُعدّ هذه طريقةً سهلةً للغاية للبقاء على اطلاع بأحدث التطورات دون الحاجة لمغادرة نظام ماك.
كيف تحقق شركة Apple في الخصوصية في الذكاء الاصطناعي: البيانات الاصطناعية والخصوصية التفاضلية
أحد أكبر التحديات التي تواجه شركة Apple في مجال الذكاء الاصطناعي هو أنها إن الالتزام بالخصوصية يجعل من الصعب جمع بيانات المستخدم الحقيقية. لتدريب نماذج كبيرة. ومع ذلك، تحتاج الشركة إلى معلومات حول كيفية كتابة رسائل البريد الإلكتروني، والمطالبات التي نستخدمها، أو كيفية تفاعلنا مع Genmoji لتحسين ذكاء أبل.
في منشور حديث من Machine Learning Research، قدمت شركة Apple تفاصيل عن نهج التعلم من بيانات الاستخدام دون الوصول المباشر إلى المحتوى الخاصتكمن الحيلة في الجمع بين البيانات الاصطناعية والمعالجة على الجهاز وتقنيات الخصوصية التفاضلية.
تعمل هذه العملية، عند تطبيقها على البريد الإلكتروني على سبيل المثال، على النحو التالي: تقوم شركة Apple بإنشاء رسائل بريد إلكتروني اصطناعية متعددة حول مواضيع مشتركة (دعوات، تأكيدات، إشعارات، إلخ)، مع اختلافات في اللغة والأسلوب والطول. يُنشأ ملف مُضمّن مع تمثيلات متجهية لكل منها.
يتم إرسال هذه الملفات إلى عدد صغير من أجهزة iPhone التي يملكها مستخدمون قاموا طواعية بتمكين تحليلات الأجهزة. يقوم iPhone بنفسه باختيار عينة من رسائل البريد الإلكتروني الحقيقية للمستخدم، ويولد تضميناتها، ويقارنها بالرسائل الاصطناعية.تحديد أي منها هو الأكثر تشابهًا، كل ذلك دون إظهار النصوص الفعلية لشركة Apple.
من خلال الخصوصية التفاضلية، تقوم Apple فقط بجمع ما هي التضمينات الاصطناعية التي تم اختيارها بشكل متكرر عبر العديد من الأجهزة، مع إضافة ضوضاء إحصائية لمنع ربط كل خيار بشخص معين. باستخدام هذه المجموعة من البيانات، تستطيع الشركة تحسين البيانات التركيبية وتدريب نماذج التلخيص والكتابة التي تعكس الاستخدام الفعلي بدقة أكبر، دون الحاجة إلى رؤية أي بريد إلكتروني حقيقي.
Genmoji وImage Playground والتحسين المستمر مع الخصوصية التفاضلية

وينطبق النهج نفسه على الوظائف الأكثر مرحًا مثل جينموجيالأداة التي تُنشئ رموزًا تعبيرية مخصصة من الأوصاف. تستخدم Apple الخصوصية التفاضلية لـ تحديد أنماط المطالبة الشائعةولكن فقط عندما يتم استخدامها من قبل مئات الأشخاص، مما يستبعد أي مؤشر فريد أو يمكن التعرف عليه.
تدعي شركة آبل أن لا يرى Genmoji المرتبط بجهاز معين.أن البيانات تصل مجهولة المصدر، وأن الضوضاء العشوائية تُضاف لحماية هوية المستخدمين، وأنها غير مرتبطة بعناوين IP أو معرفات الحسابات.
باستخدام هذه التقنيات، تستطيع الشركة ضبط النماذج التي تُشغّل Genmoji وأنظمة توليد أخرى، مما يُحسّن النتائج دون الحاجة إلى الوصول إلى المطالبات الفردية. إنه توازن معقد بين الحصول على ملاحظات مفيدة والحفاظ على السرية.
فكرة ابل هي توسيع نطاق استخدام الخصوصية التفاضلية والبيانات الاصطناعية إلى المزيد من مجالات ذكاء Apple: من Image Playground إلى إنشاء الذكريات، وأدوات الكتابة، أو الذكاء البصري الذي يحلل الصور ومقاطع الفيديو لتقديم وظائف البحث أو السياق.
ومع ذلك، فإن أولئك الذين قرروا المشاركة في هذه العمليات هم فقط من يفعلون ذلك. اختر إرسال تحليلات الجهازويمكن لأي شخص تعطيل هذا الخيار إذا كان يفضل عدم المساهمة في هذا النوع من الأبحاث.
حالات الاستخدام في أجهزة الاستشعار والنشاط: دمج البيانات مع LLM
يدور خط بحث آخر مثير للاهتمام من شركة Apple حول كيفية يمكن لطلاب الماجستير في القانون الجمع بين المعلومات من أجهزة الاستشعار مثل الميكروفونات ومقاييس التسارع التعرف على الأنشطة البشرية دون الحاجة إلى تدريب نموذج محدد لكل مهمة.
في دراسة حديثة، تستكشف شركة Apple ما يسمونه "الاندماج المتأخر"الفكرة هي أن البيانات الصوتية والحركية تتم معالجتها أولاً بشكل منفصل باستخدام نماذج أصغر، مما يؤدي إلى إنشاء أوصاف نصية وعلامات وسيطة؛ بعد ذلك، يستقبل نموذج LLM الأكبر هذه الملخصات ويقرر النشاط الذي يحدث.
وباستخدام مجموعة بيانات للأنشطة اليومية (الطبخ، وغسل الملابس، وممارسة الرياضة، وما إلى ذلك)، لاحظ الباحثون أن يمكن للنماذج تحديد ما يفعله الشخص بدقة أكبر بكثير من الصدفة.دون أن يشاهدوا تلك الأنشطة بالضبط أثناء تدريبهم.
يتمتع هذا النهج بالعديد من المزايا: فهو يقلل الحاجة إلى إنشاء نموذج جديد لكل نوع من أنواع الإجراءاتإنه يسمح بالعمل مع البيانات التي قد تكون مشوشة أو غير واضحة، ويحسن الخصوصية من خلال العمل على أوصاف نصية مشتقة، بدلاً من الصوت الخام أو آثار الحركة الكاملة.
في نظام Apple البيئي، يمكن استخدام هذه الأنواع من التقنيات لـ تحسين اكتشاف التمرين على Apple Watchإثراء مقاييس الصحة أو حتى تنفيذ ميزات جديدة على iPhone تكتشف أنماط النشاط دون الاعتماد على حلول مخصصة لكل حالة محددة.
كيف يتم تنظيم أبحاث التعلم الآلي من Apple حسب الفرق
وراء كل هذه المنتجات والأطر والتجارب هناك فرق متخصصة للغاية موزعة على مختلف مجالات أبحاث التعلم الآلي، بعد التغييرات مثل مسيرة جون جياناندرياتولي شركة أبل أهمية كبيرة لتنوع الملفات الشخصية، والمسارات المهنية، والخبرات الشخصية كمحرك للابتكار.
أحد الكتل الأكثر أهمية هو البنية التحتية للتعلم الآليهذا الفريق مسؤول عن بناء البنية التحتية للحوسبة والتخزين والتحليلات التي تدعم مشاريع الذكاء الاصطناعي واسعة النطاق. يعمل هنا مهندسو الأنظمة الخلفية والمنصات وعلماء البيانات، حيث يصممون أدوات لتدريب النماذج وتقييمها ونشرها في بيئات موزعة.
المجموعة الرئيسية الأخرى هي تلك التي التعلم العميق والتعلم المعزز، يتألف من باحثين ومهندسين يغطون تقريبًا كامل طيف الذكاء الاصطناعي المتقدم الحديث: التعلم الخاضع للإشراف وغير الخاضع للإشراف، والنماذج التوليدية، والتعلم المتعدد الوسائط، والتعلم التعزيزي العميق والعكسي، ونظرية القرار ونظرية اللعبة.
الهدف من هذه الفرق ليس مجرد البقاء على الورق، بل لجلب تقدمهم إلى منتجات حقيقية وقابلة للتطويرمن التحسينات التي تم إدخالها على Siri إلى الإمكانات الجديدة في Vision Pro أو الميزات الذكية في تطبيقات النظام.
وأخيرا، مجال معالجة اللغة الطبيعية وتقنيات الكلام يجمع هذا الفريق متخصصين في معالجة اللغة الطبيعية (NLP)، والترجمة الآلية، والتعرف على الكيانات، وأنظمة الأسئلة والأجوبة، وتجزئة المواضيع، والتعرف على الكلام. يعملون على كميات هائلة من البيانات متعددة اللغات، ويستخدمون أساليب التعلم العميق لجعل واجهات Apple أكثر سهولة في الاستخدام بعدة لغات.
دور أجهزة ماك المزودة بمعالجات Apple silicon في البحث والتطوير
لقد أثبتت أجهزة Mac المزودة بمعالج Apple silicon أنها منصات جذابة للغاية لمطوري الذكاء الاصطناعي والباحثين الذين يريدون تجربة نماذج كبيرة محليًا دون الحاجة إلى إنشاء مجموعة خاصة بهم.
بفضل الجمع بين وحدة المعالجة المركزية ووحدة معالجة الرسومات والمحرك العصبي، بالإضافة إلى الذاكرة الموحدة، يمكن لجهاز MacBook Air أو Mac Studio تشغيل استنتاجات LLM وتدريب النماذج المعتدلة بفضل استهلاك الطاقة المعقول وعدم وجود تكوينات معقدة، يعد هذا ترقية مريحة للغاية بدلاً من الاعتماد دائمًا على خوادم خارجية للنماذج الأولية السريعة أو اختبار الهندسة المعمارية الجديدة.
تتناسب هذه الأجهزة أيضًا بشكل مثالي مع فلسفة الخصوصية لشركة Appleإنها تسمح باختبار التقنيات والنماذج وخطوط الأنابيب الكاملة بالبيانات المحلية دون تحميل معلومات حساسة إلى السحابة، وهو أمر ذو قيمة كبيرة في مجالات مثل الصحة أو الإنتاجية أو الاتصالات.
علاوة على ذلك ، حقيقة أن تتشارك جميع أجهزة Mac التي تعمل بنظام Apple silicon في نفس البنية إنه يبسط نشر الحلول بشكل كبير: يمكنك التطوير على جهاز كمبيوتر محمول وتوسيع نطاقه إلى أجهزة أكثر قوة دون أي تغييرات في الكود تقريبًا، والاستفادة من جميع تحسينات النظام.
إذا أضفت إلى ذلك أدوات مثل MLX وCore ML وCreate ML والتكاملات مع Xcode، فسيصبح السبب واضحًا. الكثير من مطوري الذكاء الاصطناعي إنهم يتجهون إلى استخدام نظام التشغيل Mac كبيئة عمل أساسية للتجريب في مجال التعلم الآلي.
إن هذا النظام البيئي بأكمله - Apple Intelligence، وFoundation Models، وMLX، وCore ML، وVision، وSpeech، وفرق البحث، والهوس بالخصوصية من خلال التنفيذ على الجهاز وتقنيات مثل الخصوصية التفاضلية - يحدد استراتيجية واضحة للغاية: تريد شركة Apple أن يكون الذكاء الاصطناعي مفيدًا ومتوفرًا في كل مكان وقويًا، ولكن أيضًا متحفظًا ومسؤولًا ومحترمًا للغاية لبيانات الأشخاص الذين يستخدمونه كل يوم..