کیت رزبری پای آی چگونه کار می کند؟
کیت Raspberry Pi AI با اتصال یک واحد پردازش عصبی اختصاصی از طریق آداپتور M.2 HAT+ به رابط PCIe Raspberry Pi 5 شما کار میکند. این کیت 13 ترا{5}}عملیات در هر ثانیه از قدرت پردازش هوش مصنوعی را با تنها 70 دلار ارائه میکند، که تشخیص واقعی اشیاء، تخمین وضعیت و تقسیمبندی تصویر را بدون غلبه بر CPU اصلی امکانپذیر میسازد. این ماژول شتاب مستقل استنتاج هوش مصنوعی را به صورت محلی انجام می دهد، و باعث می شود Pi 5 شما قادر به اجرای مدل های بینایی کامپیوتری پیچیده ای باشد که قبلاً به محاسبات ابری یا سخت افزار گران قیمت نیاز داشتند.
زمان بندی بازار قابل توجه است. Raspberry Pi درآمد ۲۵۹.۵ میلیون دلاری را برای سال مالی ۲۰۲۴ با ۲۲ راهاندازی محصول با تمرکز بر سختافزار هوش مصنوعی و اینترنت اشیا گزارش کرد که نشاندهنده شرطبندی استراتژیک آنها بر روی محاسبات لبه بود. همانطور که مشاغل بار کاری هوش مصنوعی را از ابر به دستگاه های لبه تغییر می دهند، درک نحوه عملکرد این کیت مقرون به صرفه برای توسعه دهندگانی که روی دوربین های هوشمند، روباتیک و پروژه های اتوماسیون صنعتی کار می کنند بسیار مهم می شود.
درون سخت افزار: معماری فیزیکی
کیت هوش مصنوعی از سه جزء یکپارچه تشکیل شده است که با هم کار می کنند. پردازنده عصبی Hailo-8L در هسته قرار دارد - اینجاست که محاسبات واقعی هوش مصنوعی اتفاق میافتد. این ماژول از یک ضریب فرم M.2 2242 استفاده میکند و از طریق یک رابط لبه کلید M، مطابق با قراردادهای استاندارد اجزای رایانه شخصی متصل میشود.
M.2 HAT+ به عنوان پل ارتباطی بین تراشه Hailo و رابط PCIe Gen 3 Raspberry Pi شما عمل می کند. آن را به عنوان مترجمی در نظر بگیرید که سیگنال ها را بین دو زبان سخت افزاری مختلف تبدیل می کند. یک پد حرارتی از قبل-بین ماژول و HAT+ تعبیه شده است تا از گرم شدن بیش از حد در طول عملیات شدید هوش مصنوعی جلوگیری کند-این جزئیات اهمیت دارد زیرا پردازش عصبی گرمای قابل توجهی تولید می کند.
ترتیب اتصال به این صورت است: Raspberry Pi 5 → PCIe FPC کابل → M.2 HAT+ → تراشه Hailo-8L. برخلاف جدیدتر AI HAT+ که همه چیز را در یک برد ادغام میکند، کیت هوش مصنوعی از این رویکرد ماژولار M.2 استفاده میکند و به شما انعطافپذیری میدهد تا در صورت نیاز، فضای ذخیرهسازی NVMe را جایگزین کنید.
معیارهای عملکردی که در واقع مهم هستند
اعداد خام تاپس داستان کامل را بیان نمی کنند. Hailo-8L به بازده 3-4 TOPS در هر وات دست می یابد، که توضیح می دهد که چرا عملکرد آن در مقایسه با سیستم هایی با قیمت 5 برابر بیشتر است. آزمایش در دنیای واقعی بینش های عملی بیشتری را نشان می دهد.
با اجرای تشخیص شی YOLOv8s روی یک فید ویدیویی 640x640 پیکسل، Pi 5 با Hailo{7}}8L به 80 فریم در ثانیه با PCIe Gen 3 فعال میرسد - عملکرد حالت Gen 2 را دو برابر میکند. مصرف برق به طور قابل توجهی پایین می ماند. کل سیستم Pi 5 8گیگابایت با شتاب Hailo در طول استنتاج فعال هوش مصنوعی تقریباً 10 وات مصرف میکند که با یک شارژر تلفن معمولی قابل مقایسه است.
مدیریت دما در عمل موثر است. به لطف راهحل حرارتی از قبل نصبشده، آزمایش معیار استودیو Seeed عملکرد پایداری را در طول جلسات طولانیتر و بدون فشار نشان داد. این در مقابل استنتاج مبتنی بر GPU است که در آن محدودیتهای حرارتی اغلب به گلوگاه تبدیل میشوند.
جریان داده: از دوربین تا نتایج استنتاج
وقتی Pi 5 شما ویدیوی زنده را از طریق کیت هوش مصنوعی پردازش می کند، در اینجا چه اتفاقی می افتد. ماژول دوربین فریم ها را می گیرد و داده های تصویر خام را از طریق رابط CSI به CPU Raspberry Pi ارسال می کند. CPU حداقل پیشپردازش را انجام میدهد-معمولاً فقط تبدیل قالب و تنظیمات وضوح- قبل از تحویل دادهها به شتابدهنده Hailo.

گذرگاه PCIe Gen 3 این داده های از پیش پردازش شده را با سرعت 8 GT/s به Hailo-8L منتقل می کند. سپس پردازشگر عصبی استنتاج واقعی را با استفاده از معماری تخصصی خود اجرا می کند. معماری Hailo-8 شامل رم مستقل بدون نیاز به DRAM خارجی است که در مقایسه با شتابدهندههای هوش مصنوعی سنتی که دائماً دادهها را از حافظه سیستم دریافت میکنند، تأخیر را بهطور چشمگیری کاهش میدهد.
نتایج از طریق همان اتصال PCIe برمی گردند. CPU دادههای ساختاریافته{1}}مختصات شیء، امتیازات اطمینان طبقهبندی، موقعیتهای شناسایی شده-نه پیکسلهای خام را دریافت میکند. سپس اسکریپت پایتون شما این نتایج را برای راهاندازی اقدامات تفسیر میکند: ارسال هشدار، ضبط فیلم، فعال کردن موتورها یا بهروزرسانی پایگاه داده.
پشته نرمافزار برنامههای rpicam{0}}لایه یکپارچهسازی را فراهم میکند. در حال حاضر، برنامههای rpicam{2}}نرمافزار اصلی با ادغام عمیق Hailo هستند، اگرچه پشتیبانی Picamera2 اضافه شده است. این بدان معنی است که شما می توانید اسکریپت هایی بنویسید که ورودی دوربین را به طور یکپارچه از طریق شبکه های عصبی تنها با چند خط کد هدایت می کند.
پیادهسازی واقعی-در جهان: یک کیف دوربین امنیتی هوشمند
اجازه دهید یک مثال عینی را مرور کنم که قابلیتهای کیت را نشان میدهد. پروژههای VEEB «پیپر پم» را ساخته است، یک سیستم تشخیص با هوش مصنوعی{1}}که به کاربران هشدار میدهد وقتی شخصی از پشت در حین تماسهای ویدیویی نزدیک میشود، با استفاده از تشخیص شی برای شناسایی انسانها در حالی که مبلمان و گیاهان را نادیده میگیرد.
اجرای آنها به اجزای اساسی نیاز داشت: Raspberry Pi 5 با کیت AI، ماژول دوربین 3، Raspberry Pi Pico W و ولت متر آنالوگ. توسعه این سیستم تنها سه روز طول کشید و بزرگترین چالش فنی، پیادهسازی سوکتهای وب برای ارتباط موثر بین Pi 5 و Pico W بود.
معماری محاسبات لبه هوشمند را نشان می دهد. Pi 5 تمام پردازشهای هوش مصنوعی را به صورت محلی انجام میدهد-هر فریم را برای حضور انسان تجزیه و تحلیل میکند، امتیازات اطمینان را محاسبه میکند و هشدارها را راهاندازی میکند. Pico W سبک وزن بهجای نظرسنجی مداوم، به سیگنالها گوش میدهد، انرژی را حفظ میکند و سربار شبکه را کاهش میدهد. متر آنالوگ بازخورد بصری فوری را ارائه می دهد، از 0 (هیچ فردی شناسایی نشده) به 1 (تشخیص معین) با درجه بندی برای عدم قطعیت حرکت می کند.
این پروژه تقریباً 12-15 وات توان کل از جمله دوربین مصرف میکرد که بسیار کمتر از راهحلهای مشابه مبتنی بر ابر که نیاز به پخش مداوم ویدیو دارند. پردازش محلی همچنین نگرانی های مربوط به حریم خصوصی را از بین برد زیرا هیچ فیلمی از دستگاه خارج نمی شود.
مرحله به مرحله-روند راه اندازی{1}
عملیاتی شدن کیت هوش مصنوعی شامل پنج مرحله مجزا است. هر مرحله دارای الزامات خاص و مشکلات رایجی است که باید از آنها اجتناب کرد.
فاز 1: مونتاژ سخت افزار
با یک Raspberry Pi 5 با آخرین سیستم عامل Raspberry Pi 64 بیتی شروع کنید. M.2 HAT+ را به هدر GPIO وصل کنید و از تراز مناسب اطمینان حاصل کنید. کابل PCIe FPC را به Pi و HAT وصل کنید{6}}این کابل جهت خاصی دارد و مجبور کردن آن به اشتباه به کانکتور آسیب می رساند. ماژول Hailo-8L را در اسلات M.2 با پایه ای که شامل می شود، محکم کنید.
فاز 2: PCIe Gen 3 را فعال کنید
Pi 5 به طور پیش فرض روی PCIe Gen 2 برای ثبات است. /boot/firmware/config.txt را ویرایش کنید و dtparam را اضافه کنید=pciex1_gen=3. این تغییر واحد عملکرد استنتاج شما را دو برابر میکند. راه اندازی مجدد و تأیید با lspci -vv|grep "LnkSta:" برای تایید Gen 3 فعال است.
مرحله 3: نصب نرم افزار
پشته نرم افزار Hailo را نصب کنید: sudo apt update و sudo apt install hailo{0}}همه. این بسته شامل زمان اجرا HailoRT، برنامههای rpicam{2}}با پشتیبانی Hailo و نمونههای مدلهای شبکه عصبی است. نصب تقریباً به 2 گیگابایت فضای دیسک و 10-15 دقیقه در یک اتصال پهن باند معمولی نیاز دارد.
مرحله 4: تست تایید
نسخه نمایشی تشخیص شی شامل را اجرا کنید: rpicam-hello -t 0 --post-process-file /usr/share/rpi{5}camera{6}}assets/hailo_yolov6_inference.json. باید{11}}تشخیص شی در زمان واقعی را با کادرهای مرزی که اطراف موارد شناسایی شده کشیده شده است، ببینید. نرخ فریم بالای 60 فریم در ثانیه عملکرد مناسب Gen 3 را نشان می دهد.
فاز 5: استقرار مدل سفارشی
برای مدل های آموزش دیده خود، از Hailo Dataflow Compiler برای تبدیل مدل های TensorFlow یا PyTorch به فرمت HEF Hailo استفاده کنید. کامپایلر به طور خودکار کمی سازی و بهینه سازی را انجام می دهد، اگرچه برای کالیبراسیون به نمونه های مجموعه داده نماینده نیاز دارید. فایل .hef حاصل را مستقر کرده و آن را با خط لوله برنامههای rpicam{3}} خود ادغام کنید.
زمینه بازار: چرا شتاب هوش مصنوعی Edge اکنون اهمیت دارد؟
بازار تراشه های هوش مصنوعی لبه رشد انفجاری را تجربه می کند. بازار جهانی تراشههای هوش مصنوعی در سال 2024 به 123.16 میلیارد دلار رسید و پیشبینی میشود تا سال 2029 به 311.58 میلیارد دلار برسد و با CAGR 24.4 درصد رشد کند. این فقط مربوط به اعداد بزرگتر نیست- بلکه نشان دهنده یک تغییر اساسی در جایی است که پردازش هوش مصنوعی انجام می شود.
Hailo، شرکت سازنده تراشه شتاب، اعتبار قابل توجهی را تضمین کرد. این استارت آپ در آوریل 2024 120 میلیون دلار جمع آوری کرد و اکنون به بیش از 300 مشتری در بخش های خودرو، امنیت، خرده فروشی و اتوماسیون صنعتی خدمات ارائه می دهد. بقای آنها در بازاری که بسیاری از استارتآپهای تراشههای هوش مصنوعی در آن شکست خوردهاند، نشاندهنده پایداری راهحلهای متمرکز بر لبه{5}}است.

چشم انداز رقابتی مبادلات جالبی را برجسته می کند. Hailo-10H 40 TOPS عملکرد INT4، معادل 20 TOPS INT8، در مقایسه با Core Ultra Meteor Lake NPU اینتل با 11 TOPS و Ryzen 8040 AMD با 16 TOPS ارائه می دهد. با این حال، شرکتهای تراشههای ایالات متحده تنها ۸۸۱ میلیون دلار از ژانویه تا سپتامبر ۲۰۲۳ جمعآوری کردند که نسبت به ۱.۷۹ میلیارد دلار در سال ۲۰۲۲ کمتر است، که نشاندهنده محیط چالشبرانگیز تامین مالی است که موفقیت هایلو را قابل توجه میکند.
به طور خاص برای اکوسیستم Raspberry Pi، تمرکز هوش مصنوعی و IoT پیشبینی میشود که تا سال 2026 15-20% سال-در طول سال رشد فروش لوازم جانبی را افزایش دهد. کیت هوش مصنوعی نشاندهنده ورود Raspberry Pi به بازاری است که در آن آنها میتوانند از پایگاه کاربران و شبکه توزیع گسترده خود در برابر رقبای تخصصی استفاده کنند.
باورهای غلط رایج در مورد کیت هوش مصنوعی
تصور غلط: "13 TOPS به این معنی است که هر مدل هوش مصنوعی را اجرا می کند"
واقعیت شامل تفاوت های ظریف مهمی است. Hailo-8L در شبکههای عصبی کانولوشنال برای تشخیص بینایی-اشیاء کامپیوتری، تقسیمبندی، تخمین موقعیت برتری دارد. این تراشه با مدل های زبان بزرگ مشکل دارد زیرا تراشه فاقد VRAM کافی برای استنتاج LLM است. رقم 13 TOPS برای عملیات INT8 اعمال می شود، در حالی که بسیاری از مدل های ترانسفورماتور دقت FP16 یا FP32 را انتظار دارند.
تصور اشتباه: "این فقط یک GPU سریعتر است"
شتاب دهنده های عصبی از ساختارهای اساسی متفاوتی استفاده می کنند. پردازندههای گرافیکی از طراحی پردازش موازی همه منظوره پیروی میکنند که آنها را انعطافپذیر اما کارآمدتر میکند. معماری جریان داده Hailo{6}}8 به طور خاص از ویژگی های شبکه عصبی بهره برداری می کند و وابستگی به DRAM خارجی را حذف می کند. این تخصص 20 برابر راندمان انرژی بهتر را نسبت به راه حل های GPU برای کارهای خاص ممکن می کند، اما همچنین به معنای انعطاف پذیری کمتر برای بارهای کاری غیر AI است.
تصور اشتباه: "با هر دوربینی وصل-و-بازی"
در حالی که کیت از چندین دوربین پشتیبانی می کند، یکپارچه سازی نیاز به پشتیبانی نرم افزار خاصی دارد. در ابتدا، فقط برنامههای rpicam{1}} یکپارچهسازی عمیق Hailo را ارائه میکردند، اگرچه پشتیبانی Picamera2 بعداً ارائه شد. وب کم های USB کار می کنند اما به مسیرهای کد متفاوتی نیاز دارند. دوربین های MIPI CSI محکم ترین ادغام را ارائه می دهند، اما باید سازگاری با مدل دوربین خاص خود را تأیید کنید.
تصور نادرست: "اندازه دسته بیشتر همیشه برابر با عملکرد بهتر است"
آزمایش یک محدودیت جالب را نشان می دهد. عملکرد از اندازه دسته 2 (80 FPS) تا اندازه دسته 8 (120 FPS) بهبود می یابد، اما به دلیل محدودیت های پهنای باند PCIe در اندازه 16 به 100 FPS کاهش می یابد. این نشان می دهد که رابط PCIe Gen 3 x1 Pi 5 به گلوگاه با دسته های بزرگتر تبدیل می شود، نه خود پردازنده عصبی.
سوالات متداول
آیا کیت AI می تواند ChatGPT یا LLM های مشابه را اجرا کند؟
در شکل فعلی خود به طور موثری نیست. Hailo-8L فاقد ظرفیت حافظه برای مدلهای زبان بزرگ است، که معمولاً به 4 تا 16 گیگابایت رم اختصاصی فقط برای وزن مدل نیاز دارند. با این حال، مدلهای کوانتیزه کوچکتر تحت پارامترهای 1B ممکن است با محدودیتهای عملکرد قابل توجهی اجرا شوند. پروژه Llama توزیع شده اجرای LLaMA 3 8B را در چهار واحد Pi 4 با سرعت 1.6 توکن در ثانیه نشان میدهد، اگرچه این امر بر شتاب کیت هوش مصنوعی تأثیر نمیگذارد.
تفاوت بین کیت AI و AI HAT + چیست؟
کیت هوش مصنوعی از یک ماژول M.2 استفاده می کند که به برد آداپتور M.2 HAT+ متصل می شود. AI HAT+ تراشه Hailo را مستقیماً روی یک برد کلاه کامل ادغام می کند و در انواع 13 TOPS (70 دلار) و 26 TOPS (110 دلار) عرضه می شود. نسخه 26 TOPS از Hailo-8 به جای Hailo-8L استفاده می کند. هر دو از نرمافزارها و کتابخانههای یکسانی استفاده میکنند، بنابراین انتخاب بین آنها بستگی به این دارد که آیا به اسلات M.2 برای مقاصد دیگر نیاز دارید یا خیر.
مصرف انرژی در مقایسه با استنتاج ابری چگونه است؟
به طور چشمگیری پایین تر. سیستم کامل Pi 5 با استنباط هوش مصنوعی فعال حدود 10 وات، تقریباً 240 وات ساعت در روز در صورت کار مداوم مصرف می کند. استنتاج ابری مستلزم پخش مداوم ویدیو (آپلود 2 تا 4 مگابیت در ثانیه) به علاوه درخواستهای API برای پردازش است که معمولاً هزینههای پهنای باند و انرژی بیشتری را در مرکز داده مصرف میکند. برای یک برنامه دوربین امنیتی 24/7، پردازش محلی می تواند 20 تا 40 دلار ماهانه در پهنای باند و هزینه های API ابری صرفه جویی کند.
آیا می توانم از چندین کیت هوش مصنوعی در یک Raspberry Pi 5 استفاده کنم؟
نه مستقیماً روی یک Pi 5 که فقط یک رابط PCIe دارد. با این حال، جف گیرلینگ اتصال شتابدهندههای متعدد را با استفاده از سوئیچهای PCIe و بردهای توسعه نشان داد و در مجموع به 51 TOPS در تراشههای مختلف Hailo و Coral دست یافت، اگرچه این پیکربندی به طور رسمی پشتیبانی نمیشود و به منابع تغذیه خارجی نیاز دارد.
چه نرخ فریمی را باید برای برنامههای-زمان واقعی انتظار داشته باشم؟
این به پیچیدگی مدل و وضوح ورودی شما بستگی دارد. YOLOv8 با وضوح 640x640 بسته به اندازه دسته به 80{12}}120 FPS می رسد. مدلهای سادهتر مانند MobileNet میتوانند به 200+ FPS برسند. مدل های سنگین تر مانند YOLOv8x ممکن است به 30-40 FPS کاهش یابد. برای مقایسه، بینایی انسان حرکت را با سرعت 24 تا 30 فریم در ثانیه به راحتی درک می کند، بنابراین اکثر برنامه های کاربردی بلادرنگ دارای فضای بالای عملکرد راحت هستند.
آموزش مدل های سفارشی چقدر سخت است؟
مرحله آموزش در رایانه رومیزی یا نمونه ابری شما با استفاده از گردشهای کاری استاندارد TensorFlow یا PyTorch انجام میشود-تراشه Hailo در آموزش شرکت نمیکند. فرآیند تبدیل نیازمند یادگیری Hailo Dataflow Compiler است که دارای منحنی یادگیری است اما شامل مستندات جامع است. اگر از قبل با آموزش شبکه عصبی آشنا هستید، 2 تا 3 روز برای اجرای اولین مدل سفارشی خود انتظار داشته باشید. کامپایلر به طور خودکار کوانتیزاسیون را کنترل می کند، اگرچه شما به یک مجموعه داده کالیبراسیون نماینده نیاز دارید.
آیا با سایر رایانه های تک تخته-کار می کند؟
کیت AI به طور خاص رابط PCIe و فرم فاکتور Raspberry Pi 5 را هدف قرار می دهد. با این حال، ماژول زیرین Hailo-8L M.2 یک جزء استاندارد است. دستگاههایی مانند reComputer R1000 از Seed Studio با اسلاتهای M.2 میتوانند ماژول Hailo را در خود جای دهند، اگرچه باید پشته نرمافزار را پورت کنید. سایر SBC ها با اسلات M.2 (Rock 5B، Orange Pi 5) از نظر تئوری می توانند کار کنند اما به تلاش قابل توجهی برای یکپارچه سازی نرم افزار نیاز دارند.
واقعاً مردم در حال ساخت چه پروژه هایی هستند؟
جامعه برنامه های کاربردی متنوعی ایجاد کرده است. این پروژهها شامل دستگاههای قرصهای هوشمند با استفاده از تشخیص اشیا، دوربینهای حیات وحش با شناسایی گونهها و هشدارهای به هم ریخته میز است که اشیا را میشمارند. تخمین پوس برنامههای ردیابی تناسب اندام را فعال میکند که بر فرم تمرین نظارت میکنند و تعداد تکرارها را میشمارند. کاربران صنعتی این کیت را برای بازرسی کنترل کیفیت، شمارش محصولات روی تسمه نقاله، و شناسایی موارد نقض ایمنی در{3}}فیدهای ویدیویی بلادرنگ استفاده میکنند.
تصمیم گیری: وقتی کیت هوش مصنوعی معنا پیدا کند
کیت هوش مصنوعی Raspberry Pi در سناریوهای خاص می درخشد. زمانی ایده آل است که به دید رایانه واقعی{1}}با انرژی باتری یا در محیط های تعبیه شده که اتصال ابری غیرقابل اعتماد است نیاز دارید. زنگهای هوشمند در، دوربینهای حیات وحش، سیستمهای بازرسی صنعتی، و برنامههای روباتیک، کارهایی را نشان میدهند که{3}}به پردازش مستمر هوش مصنوعی با الزامات تأخیر و بودجههای نیرو نیاز دارند.
هنگامی که نیازهای شما متفاوت است، گزینه های جایگزین را در نظر بگیرید. اگر در درجه اول به LLM یا پردازش زبان طبیعی علاقه دارید، به سختافزار متفاوت-احتمالاً یک GPU دسکتاپ یا دسترسی به API ابری نیاز دارید. برای کارهای گاه به گاه هوش مصنوعی که تأخیر حیاتی نیست، سرویسهای ابری ممکن است با وجود هزینههای استنتاج بالاتر-مقرون به صرفهتر باشند.
قیمت 70 دلاری این کیت را به عنوان یک پلت فرم آزمایشی قرار می دهد که برای یادگیری به اندازه کافی مقرون به صرفه است و در عین حال برای نمونه های اولیه به اندازه کافی قدرتمند است. با تاکید استراتژیک رزبری پای بر قابلیتهای هوش مصنوعی و عرضه 22 محصول در سال 2024، اکوسیستم نرمافزاری به بلوغ خود ادامه میدهد و سرمایهگذاری را در طول زمان ارزشمندتر میکند.
100 تا 150 دلار اضافی برای اجزای پشتیبانی بپردازید: منبع تغذیه با کیفیت، ماژول دوربین، کیس خنک کننده و کارت microSD با کلاس سرعت کافی. هزینه کل سیستم بین 200 تا 250 دلار همچنان 50 تا 70 درصد از سیستمهای دوربین هوش مصنوعی تجاری کمتر میکند و در عین حال آزادی سفارشیسازی کامل را ارائه میدهد.
خط سیر بازار هوش مصنوعی حاکی از آن است که اکنون زمان استراتژیک برای ایجاد مهارت با این ابزارها است. چه دانشجویی باشید که گزینههای شغلی را بررسی میکند، یک سازنده محصولات نمونهسازی شده، یا مهندس ارزیابی فنآوریها برای استقرار صنعتی، درک نحوه عملکرد Raspberry Pi AI Kit تجربهای-در زمینه معماریهای محاسباتی فراهم میکند که دهه آینده دستگاههای هوشمند را تامین میکند.




