كيف تعمل مجموعة راسبيري بي آي؟
تعمل مجموعة Raspberry Pi AI Kit عن طريق توصيل وحدة معالجة عصبية مخصصة من خلال محول M.2 HAT+ بواجهة PCIe الخاصة بـ Raspberry Pi 5. توفر المجموعة 13 تيرا-عملية في الثانية من قوة معالجة الذكاء الاصطناعي بتكلفة 70 دولارًا فقط، مما يتيح اكتشاف الكائنات في الوقت الفعلي-وتقدير الوضع وتقسيم الصور دون إرباك وحدة المعالجة المركزية الرئيسية. تتعامل وحدة التسريع المستقلة هذه مع استدلال الذكاء الاصطناعي محليًا، مما يجعل جهاز Pi 5 الخاص بك قادرًا على تشغيل نماذج رؤية الكمبيوتر المتطورة التي كانت تتطلب سابقًا حوسبة سحابية أو أجهزة باهظة الثمن.
توقيت السوق مهم. أعلنت Raspberry Pi عن إيرادات بقيمة 259.5 مليون دولار أمريكي للسنة المالية 2024 مع إطلاق 22 منتجًا تركز على أجهزة الذكاء الاصطناعي وإنترنت الأشياء، مما يشير إلى رهانها الاستراتيجي على الحوسبة المتطورة. مع قيام الشركات بتحويل أعباء عمل الذكاء الاصطناعي من الأجهزة السحابية إلى الأجهزة الطرفية، يصبح فهم كيفية عمل هذه المجموعة ذات الأسعار المعقولة أمرًا بالغ الأهمية للمطورين الذين يعملون على الكاميرات الذكية والروبوتات ومشاريع الأتمتة الصناعية.
داخل الأجهزة: الهندسة الفيزيائية
تتكون مجموعة أدوات الذكاء الاصطناعي من ثلاثة مكونات متكاملة تعمل معًا. يوجد المعالج العصبي Hailo-8L في المركز، وهو المكان الذي تتم فيه حسابات الذكاء الاصطناعي الفعلية. تستخدم الوحدة عامل الشكل M.2 2242 وتتصل من خلال موصل حافة المفتاح M، وفقًا لاتفاقيات مكونات الكمبيوتر القياسية.
يعمل M.2 HAT+ كجسر بين شريحة Hailo وواجهة PCIe Gen 3 الخاصة بـ Raspberry Pi. فكر في الأمر كمترجم يقوم بتحويل الإشارات بين لغتين مختلفتين للأجهزة. تأتي اللوحة الحرارية-مثبتة مسبقًا بين الوحدة وHAT+ لمنع ارتفاع درجة الحرارة أثناء عمليات الذكاء الاصطناعي المكثفة-وهذه التفاصيل مهمة لأن المعالجة العصبية تولد حرارة كبيرة.
يتدفق تسلسل الاتصال على النحو التالي: Raspberry Pi 5 → كابل PCIe FPC → M.2 HAT+ → شريحة Hailo-8L. على عكس AI HAT+ الأحدث الذي يدمج كل شيء في لوحة واحدة، تستخدم AI Kit نهج M.2 المعياري هذا، مما يمنحك المرونة للتبديل المحتمل في وحدة تخزين NVMe إذا لزم الأمر.
مقاييس الأداء التي تهم في الواقع
أرقام TOPS الخام لا تحكي القصة كاملة. يحقق Hailo-8L 3-4 TOPS لكل واط من الكفاءة، وهو ما يفسر سبب أدائه مقارنةً بالأنظمة التي تكلف 5 مرات أكثر. يكشف اختبار العالم الحقيقي عن المزيد من الأفكار العملية.
من خلال تشغيل اكتشاف الكائنات YOLOv8s على تغذية فيديو بدقة 640 × 640 بكسل، يحقق Pi 5 المزود بـ Hailo-8L 80 إطارًا في الثانية مع تمكين PCIe Gen 3 - وهو ما يضاعف أداء وضع Gen 2. يظل استهلاك الطاقة منخفضًا بشكل ملحوظ. يستهلك نظام Pi 5 8GB بالكامل مع تسريع Hailo ما يقرب من 10 وات أثناء استدلال الذكاء الاصطناعي النشط، وهو ما يمكن مقارنته بشاحن الهاتف النموذجي.
أثبتت إدارة درجة الحرارة فعاليتها في الممارسة العملية. أظهر الاختبار المعياري لـ Seeed Studio أداءً مستقرًا عبر الجلسات الممتدة دون أي قيود، وذلك بفضل الحل الحراري المثبت مسبقًا-. وهذا يتناقض مع الاستدلال المستند إلى وحدة معالجة الرسومات- حيث غالبًا ما تصبح القيود الحرارية هي عنق الزجاجة.
تدفق البيانات: من الكاميرا إلى نتائج الاستدلال
إليك ما يحدث بالفعل عندما يقوم جهاز Pi 5 بمعالجة الفيديو المباشر من خلال AI Kit. تلتقط وحدة الكاميرا الإطارات وترسل بيانات الصورة الأولية إلى وحدة المعالجة المركزية الخاصة بـ Raspberry Pi عبر واجهة CSI. تجري وحدة المعالجة المركزية الحد الأدنى من المعالجة المسبقة-عادةً ما تقوم فقط بتنسيق التحويل وتعديلات الدقة-قبل تسليم البيانات إلى مسرع Hailo.

ينقل ناقل PCIe Gen 3 هذه البيانات المعالجة مسبقًا إلى Hailo-8L بسرعات تصل إلى 8 GT/s. ثم يقوم المعالج العصبي بتشغيل الاستدلال الفعلي باستخدام بنيته المتخصصة. تتضمن بنية Hailo-8 ذاكرة وصول عشوائي (RAM) مستقلة دون الحاجة إلى ذاكرة وصول عشوائي (DRAM) خارجية، مما يقلل بشكل كبير من زمن الوصول مقارنة بمسرعات الذكاء الاصطناعي التقليدية التي تجلب البيانات باستمرار من ذاكرة النظام.
تتدفق النتائج مرة أخرى من خلال نفس اتصال PCIe. تتلقى وحدة المعالجة المركزية بيانات منظمة-إحداثيات الكائنات ودرجات ثقة التصنيف والأوضاع المكتشفة-وليس وحدات البكسل الأولية. يقوم برنامج Python النصي الخاص بك بعد ذلك بتفسير هذه النتائج لبدء الإجراءات: إرسال تنبيه، أو تسجيل اللقطات، أو تنشيط المحركات، أو تحديث قاعدة البيانات.
توفر حزمة برامج تطبيقات rpicam- طبقة التكامل. في الوقت الحالي، تعد تطبيقات rpicam- هي البرنامج الأساسي الذي يتمتع بتكامل Hailo العميق، على الرغم من إضافة دعم Picamera2. هذا يعني أنه يمكنك كتابة نصوص برمجية تنقل إدخالات الكاميرا بسلاسة عبر الشبكات العصبية باستخدام بضعة أسطر فقط من التعليمات البرمجية.
التنفيذ الحقيقي-في العالم: حقيبة كاميرا الأمان الذكية
اسمحوا لي أن أعرض مثالاً ملموسًا يوضح قدرات المجموعة. قامت VEEB Projects ببناء "Peeper Pam"، وهو نظام كشف مدعوم بالذكاء الاصطناعي- ينبه المستخدمين عندما يقترب شخص ما من الخلف أثناء مكالمات الفيديو، وذلك باستخدام اكتشاف الأشياء للتعرف على البشر مع تجاهل الأثاث والنباتات.
يتطلب تنفيذها مكونات أساسية: Raspberry Pi 5 مع AI Kit، وحدة الكاميرا 3، Raspberry Pi Pico W، ومقياس الفولتميتر التناظري. استغرق تطوير النظام ثلاثة أيام فقط، وكان التحدي الفني الأكبر هو تنفيذ مقابس الويب للاتصال الفعال بين Pi 5 وPico W.
توضح البنية حوسبة الحافة الذكية. يتعامل جهاز Pi 5 مع جميع عمليات معالجة الذكاء الاصطناعي محليًا-ويحلل كل إطار للتواجد البشري، ويحسب درجات الثقة، ويطلق التنبيهات. يستمع جهاز Pico W خفيف الوزن ببساطة إلى الإشارات بدلاً من الاستقصاء المستمر والحفاظ على الطاقة وتقليل حمل الشبكة. يوفر المقياس التناظري ردود فعل بصرية فورية، حيث ينتقل من 0 (لم يتم اكتشاف أي شخص) إلى 1 (اكتشاف معين) مع تدرج عدم اليقين.
استهلك هذا المشروع حوالي 12-15 واط من الطاقة الإجمالية بما في ذلك الكاميرا، وهو أقل بكثير من الحلول المماثلة المستندة إلى السحاب والتي تتطلب بثًا مستمرًا للفيديو. أدت المعالجة المحلية أيضًا إلى القضاء على مخاوف الخصوصية نظرًا لعدم خروج أي لقطات من الجهاز.
خطوة-بواسطة-خطوة عملية الإعداد
يتضمن تشغيل مجموعة أدوات الذكاء الاصطناعي خمس مراحل متميزة. كل مرحلة لها متطلبات محددة والمزالق المشتركة التي يجب تجنبها.
المرحلة 1: تجميع الأجهزة
ابدأ باستخدام Raspberry Pi 5 الذي يعمل بأحدث إصدار 64 بت من نظام التشغيل Raspberry Pi OS. قم بتوصيل M.2 HAT+ برأس GPIO، مما يضمن المحاذاة الصحيحة. قم بتوصيل كابل PCIe FPC بكل من Pi وHAT+-يحتوي الكابل على اتجاه محدد، وسيؤدي فرضه بشكل غير صحيح إلى تلف الموصل. قم بتأمين وحدة Hailo-8L في فتحة M.2 باستخدام المواجهة المضمنة.
المرحلة 2: تمكين PCIe Gen 3
يتم تعيين Pi 5 افتراضيًا على PCIe Gen 2 لتحقيق الاستقرار. قم بتحرير /boot/firmware/config.txt وأضف dtparam=pciex1_gen=3. يؤدي هذا التغيير الفردي إلى مضاعفة أداء الاستدلال لديك. أعد التشغيل وتحقق باستخدام lspci -vv|grep "LnkSta:" لتأكيد نشاط Gen 3.
المرحلة 3: تثبيت البرامج
قم بتثبيت حزمة برامج Hailo: Sudo apt update وsudo apt install hailo-all. تتضمن هذه الحزمة وقت تشغيل HailoRT، وتطبيقات rpicam-التي تدعم Hailo، وأمثلة لنماذج الشبكات العصبية. يتطلب التثبيت حوالي 2 غيغابايت من مساحة القرص و10-15 دقيقة على اتصال نموذجي واسع النطاق.
المرحلة الرابعة: اختبار التحقق
قم بتشغيل العرض التوضيحي المضمن لاكتشاف الكائنات: rpicam-hello -t 0 --post-process-file /usr/share/rpi-camera-assets/hailo_yolov6_inference.json. من المفترض أن تشاهد اكتشاف الكائنات في الوقت الفعلي-مع رسم مربعات محيطة حول العناصر المكتشفة. تشير معدلات الإطارات التي تزيد عن 60 إطارًا في الثانية إلى التشغيل الصحيح للجيل الثالث.
المرحلة 5: نشر النموذج المخصص
بالنسبة لنماذجك المدربة، استخدم برنامج Hailo Dataflow Compiler لتحويل نماذج TensorFlow أو PyTorch إلى تنسيق Hailo's HEF. يتعامل المترجم مع القياس الكمي والتحسين تلقائيًا، على الرغم من أنك ستحتاج إلى عينات تمثيلية من مجموعة البيانات للمعايرة. انشر ملف .hef الناتج وادمجه مع مسار تطبيقات rpicam-.
سياق السوق: ما أهمية تسريع الذكاء الاصطناعي في Edge الآن
يشهد سوق شرائح الذكاء الاصطناعي المتطورة نموًا هائلاً. وصل سوق شرائح الذكاء الاصطناعي العالمي إلى 123.16 مليار دولار في عام 2024 ومن المتوقع أن يصل إلى 311.58 مليار دولار بحلول عام 2029، بمعدل نمو سنوي مركب 24.4٪. ولا يقتصر الأمر على الأعداد الأكبر فقط-إنه يمثل تحولًا أساسيًا في المكان الذي تتم فيه معالجة الذكاء الاصطناعي.
وقد حصلت شركة Hailo، الشركة التي تقف وراء شريحة التسريع، على قدر كبير من التحقق من الصحة. جمعت الشركة الناشئة 120 مليون دولار في أبريل 2024 وتخدم الآن أكثر من 300 عميل في قطاعات السيارات والأمن وتجارة التجزئة والأتمتة الصناعية. إن بقاءهم في سوق فشلت فيه العديد من الشركات الناشئة في مجال شرائح الذكاء الاصطناعي يدل على جدوى الحلول التي تركز على الحافة-.

يسلط المشهد التنافسي الضوء على مقايضات مثيرة للاهتمام. يوفر Hailo-10H 40 TOPS من أداء INT4، أي ما يعادل 20 TOPS من INT8، مقارنة بمعالج Intel Core Ultra Meteor Lake NPU عند 11 TOPS وRyzen 8040 من AMD عند 16 TOPS. ومع ذلك، جمعت شركات الرقائق الأمريكية 881 مليون دولار فقط في الفترة من يناير إلى سبتمبر 2023، بانخفاض من 1.79 مليار دولار في عام 2022، مما يظهر بيئة التمويل الصعبة التي تجعل نجاح هايلو ملحوظًا.
بالنسبة لنظام Raspberry Pi البيئي على وجه التحديد، من المتوقع أن يؤدي التركيز على الذكاء الاصطناعي وإنترنت الأشياء إلى تحقيق نمو سنوي بنسبة 15-20%-في مبيعات الملحقات حتى عام 2026. وتمثل مجموعة أدوات الذكاء الاصطناعي دخول Raspberry Pi إلى سوق حيث يمكنهم الاستفادة من قاعدة المستخدمين الضخمة وشبكة التوزيع الخاصة بهم ضد المنافسين المتخصصين.
المفاهيم الخاطئة الشائعة حول مجموعة أدوات الذكاء الاصطناعي
فكرة خاطئة: "13 TOPS تعني أنه يشغل أي نموذج من نماذج الذكاء الاصطناعي"
الواقع ينطوي على فارق بسيط كبير. يتفوق Hailo-8L في الشبكات العصبية التلافيفية للكشف عن كائنات رؤية الكمبيوتر وتقسيمها وتقدير الوضعية. إنها تواجه صعوبات مع نماذج اللغات الكبيرة لأن الشريحة تفتقر إلى VRAM كافية لاستدلال LLM. ينطبق الرقم 13 TOPS على عمليات INT8، بينما تتوقع العديد من نماذج المحولات دقة FP16 أو FP32.
فكرة خاطئة: "إنها مجرد وحدة معالجة رسومات أسرع"
تستخدم المسرعات العصبية بنيات مختلفة بشكل أساسي. تتبع وحدات معالجة الرسومات تصميم معالجة متوازية للأغراض العامة-، مما يجعلها مرنة ولكن أقل كفاءة. تستغل بنية تدفق البيانات Hailo-8 خصائص الشبكة العصبية على وجه التحديد، مما يؤدي إلى التخلص من تبعية DRAM الخارجية. يتيح هذا التخصص كفاءة طاقة أفضل 20 مرة من حلول وحدة معالجة الرسومات لمهام محددة، ولكنه يعني أيضًا مرونة أقل لأحمال العمل غير المتعلقة بالذكاء الاصطناعي.
فكرة خاطئة: "قم بالتوصيل-والتشغيل- بأي كاميرا"
في حين أن المجموعة تدعم كاميرات متعددة، فإن التكامل يتطلب دعمًا برمجيًا محددًا. في البداية، كانت تطبيقات rpicam- فقط هي التي تقدم تكاملًا عميقًا مع Hailo، على الرغم من وصول دعم Picamera2 لاحقًا. تعمل كاميرات الويب USB ولكنها تتطلب مسارات تعليمات برمجية مختلفة. توفر كاميرات MIPI CSI أقصى قدر من التكامل ولكنك ستحتاج إلى التحقق من التوافق مع طراز الكاميرا المحدد لديك.
المفهوم الخاطئ: "المزيد من حجم الدفعة يعني دائمًا أداء أفضل"
يكشف الاختبار عن وجود قيود مثيرة للاهتمام. يتحسن الأداء من حجم الدفعة 2 (80 إطارًا في الثانية) إلى حجم الدفعة 8 (120 إطارًا في الثانية)، ولكنه ينخفض إلى 100 إطارًا في الثانية عند حجم الدفعة 16 بسبب قيود عرض النطاق الترددي PCIe. يشير هذا إلى أن واجهة PCIe Gen 3 x1 الخاصة بـ Pi 5 تصبح عنق الزجاجة مع الدفعات الأكبر، وليس المعالج العصبي نفسه.
الأسئلة المتداولة
هل يمكن لـ AI Kit تشغيل ChatGPT أو LLMs مماثلة؟
ليس بشكل فعال في شكله الحالي. يفتقر Hailo-8L إلى سعة الذاكرة لنماذج اللغات الكبيرة، والتي تتطلب عادةً 4-16 جيجابايت من ذاكرة الوصول العشوائي المخصصة لأوزان النماذج فقط. ومع ذلك، قد تعمل النماذج الكمية الأصغر ضمن معلمات 1B مع قيود كبيرة على الأداء. يوضح مشروع Llama الموزع تشغيل LLaMA 3 8B عبر أربع وحدات Pi 4 بمعدل 1.6 رمزًا في الثانية، على الرغم من أن هذا لا يعزز تسريع AI Kit.
ما الفرق بين AI Kit وAI HAT+؟
تستخدم مجموعة AI Kit وحدة M.2 التي يتم توصيلها بلوحة محول M.2 HAT+. تدمج تقنية AI HAT+ شريحة Hailo مباشرة على لوحة HAT كاملة وتأتي في 13 نسخة TOPS (70 دولارًا) و26 نسخة TOPS (110 دولارات). يستخدم الإصدار 26 TOPS Hailo-8 بدلاً من Hailo-8L. يستخدم كلاهما برامج ومكتبات متطابقة، لذا يعتمد الاختيار بينهما على ما إذا كنت بحاجة إلى فتحة M.2 لأغراض أخرى.
كيف يمكن مقارنة استهلاك الطاقة بالاستدلال السحابي؟
أقل بشكل كبير. يستهلك نظام Pi 5 الكامل المزود باستدلال الذكاء الاصطناعي النشط حوالي 10 وات، أي ما يقرب من 240 وات في الساعة يوميًا في حالة التشغيل المستمر. سيتطلب الاستدلال السحابي دفقًا ثابتًا للفيديو (تحميل 2-4 ميجابت في الثانية) بالإضافة إلى مكالمات واجهة برمجة التطبيقات (API) للمعالجة، مما يستهلك عادةً المزيد من تكاليف عرض النطاق الترددي والطاقة في مركز البيانات. بالنسبة لتطبيق كاميرا أمنية يعمل على مدار الساعة طوال أيام الأسبوع، يمكن أن توفر المعالجة المحلية ما بين 20 إلى 40 دولارًا شهريًا من رسوم عرض النطاق الترددي ورسوم API السحابية.
هل يمكنني استخدام عدة مجموعات AI على جهاز Raspberry Pi 5 واحد؟
ليس مباشرة على جهاز Pi 5 واحد، الذي يحتوي على واجهة PCIe واحدة فقط. ومع ذلك، أظهر Jeff Geerling توصيل مسرعات متعددة باستخدام محولات PCIe ولوحات التوسعة، محققًا إجمالي 51 TOPS عبر مختلف شرائح Hailo وCoral، على الرغم من أن هذا التكوين غير مدعوم رسميًا ويتطلب مصادر طاقة خارجية.
ما معدل الإطارات الذي يجب أن أتوقعه لتطبيقات الوقت الفعلي-؟
يعتمد ذلك على مدى تعقيد النموذج ودقة الإدخال. تحقق YOLOv8s بدقة 640 × 640 80-120 إطارًا في الثانية حسب حجم الدفعة. يمكن للنماذج الأبسط مثل MobileNet أن تصل إلى 200+ إطارًا في الثانية. قد تنخفض النماذج الأثقل مثل YOLOv8x إلى 30-40 إطارًا في الثانية. للمقارنة، ترى الرؤية البشرية الحركة بسلاسة عند 24-30 إطارًا في الثانية، لذا فإن معظم التطبيقات في الوقت الفعلي تتمتع بمساحة أداء مريحة.
ما مدى صعوبة تدريب النماذج المخصصة؟
تحدث مرحلة التدريب على كمبيوتر سطح المكتب أو المثيل السحابي باستخدام مسارات عمل TensorFlow أو PyTorch القياسية-لا تشارك شريحة Hailo في التدريب. تتطلب عملية التحويل تعلم برنامج Hailo Dataflow Compiler، الذي يحتوي على منحنى تعليمي ولكنه يتضمن وثائق شاملة. توقع 2-3 أيام لتشغيل أول نموذج مخصص لك إذا كنت معتادًا على تدريب الشبكة العصبية. يقوم المترجم بمعالجة التكميم تلقائيًا، على الرغم من أنك ستحتاج إلى مجموعة بيانات معايرة تمثيلية.
هل يعمل مع أجهزة كمبيوتر أخرى-لوحة واحدة؟
تستهدف مجموعة AI Kit على وجه التحديد واجهة PCIe وعامل الشكل الخاص بـ Raspberry Pi 5. ومع ذلك، فإن وحدة Hailo-8L M.2 الأساسية هي مكون قياسي. يمكن لأجهزة مثل reComputer R1000 من Seeed Studio مع فتحات M.2 أن تستوعب وحدة Hailo، على الرغم من أنك ستحتاج إلى توصيل حزمة البرامج. يمكن أن تعمل وحدات SBC الأخرى المزودة بفتحات M.2 (Rock 5B وOrange Pi 5) من الناحية النظرية ولكنها تتطلب جهدًا كبيرًا لتكامل البرامج.
ما هي المشاريع التي يبنيها الناس بالفعل؟
أنشأ المجتمع تطبيقات متنوعة. وتشمل المشاريع موزعات الأقراص الذكية التي تستخدم التعرف على الأشياء، وكاميرات الحياة البرية مع تحديد الأنواع، والتنبيهات المكتبية المزدحمة التي تحسب الأشياء. يتيح تقدير الوضعية لتطبيقات تتبع اللياقة البدنية التي تراقب شكل التمرين وتحسب التكرارات. ينشر المستخدمون الصناعيون هذه المجموعة لفحص مراقبة الجودة، وحصر المنتجات على سيور النقل، واكتشاف انتهاكات السلامة في خلاصات الفيديو-في الوقت الفعلي.
اتخاذ قرارك: عندما تكون مجموعة أدوات الذكاء الاصطناعي منطقية
تتألق مجموعة Raspberry Pi AI Kit في سيناريوهات محددة. إنه مثالي عندما تحتاج إلى رؤية الكمبيوتر في الوقت الفعلي-باستخدام طاقة البطارية أو في البيئات المضمنة حيث لا يمكن الاعتماد على الاتصال السحابي. تمثل أجراس الأبواب الذكية، وكاميرات الحياة البرية، وأنظمة الفحص الصناعي، وتطبيقات الروبوتات أفضل المهام- التي تتطلب معالجة مستمرة للذكاء الاصطناعي مع متطلبات زمن استجابة صارمة وميزانيات طاقة.
فكر في البدائل عندما تختلف متطلباتك. إذا كنت مهتمًا في المقام الأول ببرامج ماجستير إدارة الأعمال أو معالجة اللغات الطبيعية، فستحتاج إلى أجهزة مختلفة-ربما وحدة معالجة الرسومات لسطح المكتب أو الوصول إلى واجهة برمجة التطبيقات السحابية. بالنسبة لمهام الذكاء الاصطناعي العرضية التي لا يكون زمن الاستجابة فيها بالغ الأهمية، قد تكون الخدمات السحابية أكثر فعالية من حيث التكلفة-على الرغم من ارتفاع تكاليف الاستدلال-.
تعمل نقطة السعر البالغة 70 دولارًا على وضع المجموعة كمنصة تجريبية ميسورة التكلفة بدرجة كافية للتعلم ولكنها قوية بما يكفي لإنتاج النماذج الأولية. ومع التركيز الاستراتيجي لـ Raspberry Pi على قدرات الذكاء الاصطناعي وإطلاق 22 منتجًا في عام 2024، سيستمر النظام البيئي للبرمجيات في النضج، مما يجعل الاستثمار أكثر قيمة بمرور الوقت.
قم بتخصيص مبلغ إضافي قدره 100-150 دولارًا أمريكيًا لدعم المكونات: مصدر طاقة عالي الجودة، ووحدة كاميرا، وعلبة مزودة بتبريد، وبطاقة microSD بفئة سرعة كافية. لا تزال تكلفة النظام الإجمالية البالغة 200-250 دولارًا تقلل من تكلفة أنظمة كاميرات الذكاء الاصطناعي التجارية بنسبة 50-70% مع توفير حرية التخصيص الكاملة.
ويشير مسار سوق الذكاء الاصطناعي المتقدم إلى أن الوقت الحالي هو الوقت الاستراتيجي لبناء المهارات باستخدام هذه الأدوات. سواء كنت طالبًا يستكشف الخيارات المهنية، أو صانعًا لمنتجات النماذج الأولية، أو مهندسًا يقيم تقنيات النشر الصناعي، فإن فهم كيفية عمل Raspberry Pi AI Kit يوفر لك خبرة عملية-في بنيات الحوسبة التي ستدعم الأجهزة الذكية في العقد القادم.




