واضح آرشیو وب فارسی:سایبربان: هم اکنون برخی توسعه دهنده ها، برای پردازش های موازی، از پردازنده های گرافیکی، به جای پردازنده مرکزی، استفاده می کنند.شرکت های فیس بوک و گوگل، برای تأمین قدرت هوش های مصنوعی خود، سخت افزارهای محاسباتی قدرت مندی، تولید کرده اند. این سخت افزارها، وظیفه تأمین قدرت محاسبات تنسورفلو گوگل (tensorflow)، دست یار صوتی فیس بوک، با نام ام، و تبلیغات هدف مند هر 2 شرکت را دارند. قدرت رایانه های سفارشی شده سرورهای فیس بوک - با اسم رمز بیگ سور (Big Sur) - با استفاده از تعداد فراوانی پردازنده گرافیکی (GPU) تأمین می شود. بخش عظیمی از قدرت سخت افزار هوش مصنوعی تنسورفلو نیز به همین شکل، ایجاد می گردد. این پردازنده ها، همان کارت های گرافیکی هستند که در رایانه های معمولی، وظیفه اجرای بازی های ویدئویی و پردازش های 3 بعدی را بر عهده دارند. چرا در محاسبات هوش مصنوعی، از پردازنده های گرافیکی، به جای پردازنده های مرکزی (CPU) استفاده می شود؟ وظیفه اصلی پردازنده های گرافیکی، کمک به پردازنده های مرکزی، در اجرای محاسبات است. در واقع پردازنده های گرافیکی، وظیفه انجام دادن محاسبات گرافیکی را بر عهده گرفته، بار آن را از روی پردازنده های مرکزی برمی دارند. ترسیم گرافیک 3 بعدی، به عنوان یکی از اصلی ترین مثال های پردازش موازی، شناخته می شود. در پردازش موازی، محاسبات، به تعداد فراوانی مسئله کوچک، تقسیم می شوند؛ تا به صورت موازی، اجرا گردند. این موضوع، باعث می شود که کار، با سرعت بالاتری، صورت پذیرد. قابلیت پردازش های موازی، در کارت های گرافیکی، باعث شده است که بسیاری از شرکت ها، به شکل دیگری، از این کارت ها، استفاده کنند. با کمی تغییرات و بهینه سازی پردازنده های گرافیکی، علاوه بر این گونه محاسبات، می توان برای پردازش های موازی غیرگرافیکی نیز از آن ها، بهره برداری کرد. این موضوع، باعث می شود؛ تا پردازنده های مرکزی، با سرعت بالاتری، محاسبات تک رشته ای را انجام دهند؛ زیرا بسیاری از نرم افزارهای امروزی، هنوز از پردازش موازی، پشتیبانی نمی کنند. بهترین پردازنده های مرکزی موجود در بازار، معمولا 8 هسته دارند. این در حالی است که پردازنده های گرافیکی، از هزاران هسته، استفاده می کنند. به عنوان مثال، کارت گرافیکی «NVIDIA Tesla M40» به کاررفته در سرورهای فیس بوک، 3 هزار و 72 هسته کودا 1 (CUDA core) دارد. کارت گرافیک Nvidia Tesla M40 بهره گیری از این روش، هزینه های خاص خود را خواهد داشت؛ زیرا نرم افزارهایی که به شیوه یادشده، اجرایی می شوند، باید به صورتی نوشته شده باشند که پردازنده گرافیکی، از عهده محاسبات آن ها برآید. چرا استفاده از پردازنده گرافیکی، برای عمل کرد هوش مصنوعی، بهتر است؟ یکی از دلایلی که پردازنده های گرافیکی را به انتخابی مناسب، برای ابررایانه ها، تبدیل می کند، تعداد بالای محاسباتی است که به صورت موازی، انجام می گیرد. در دهه 90، مفهوم شبکه های عصبی و الگوریتم های یادگیری عمیق (Deep Learning) - که از روش های ایجاد هوش مصنوعی هستند - به وجود آمد. با استفاده از پردازنده های گرافیکی و پردازش های موازی امروزی می توان با نتایجی بهتر، عمق و سرعت بیش تری به این نوع الگوریتم ها داد. آموزش به شبکه های عصبی، با کمک پردازش های موازی کارت گرافیکی، سرعت بیش تری نسبت به پردازنده های مرکزی، ایجاد می کند. شبکه های عصبی به کاررفته در ابررایانه های گوگل، توانایی تشخیص زبان گفتار، ترجمه آن و جستجوی معنایی دارد. بخشی از ابر رایانه ی بیگ سور که توسط 8 کارت گرافیک Tesla M4 پشتیبانی می شود. آیا آینده محاسبات، در گرو پردازنده های گرافیکی است؟ قانون مور بیان می کند: «قدرت محاسبات رایانه ها، هر سال، نسبت به سال پیش، 2 برابر می شود. این موضوع، با کوچک تر شدن و تولید دمای کم تر قطعات، محقق می گردد؛ زیرا به پردازنده های مرکزی، امکان می دهد؛ با سرعت بیش تری، کار کنند.» به نظر می رسد؛ این قانون، محدودیت هایی، داشته باشد؛ زیرا با کوچک تر شدن معماری پردازنده مرکزی، تولید آن، سخت تر می شود. تا مدتی قبل، بهره گیری از پردازنده های مرکزی چندهسته ای، بهترین راه برای پردازش های موازی، به شمار می آمد؛ اما پردازنده گرافیکی، این کار را وارد مرحله ای جدید کرد. علاوه بر هوش مصنوعی، از پردازنده های گرافیکی، برای شبیه سازی مغز، موتورهای فیزیک و شبیه سازی رفتار سیالات و چندین مورد دیگر، استفاده می شود. هم اینک ابررایانه های تیانهی دو (Tianhe-2) و تایتان (Titan) که از قدرت مندترین ابررایانه های دنیا هستند، با پردازنده های گرافیکی انویدیا، تغذیه می شوند. عده ای از تحلیل گران، پیش بینی می کنند که به وسیله پردازنده های گرافیکی بتوان نسبت به تکامل هوش مصنوعی، با سرعت بالاتری، اقدام نمود. با استفاده از این روش، اجرای محاسبات بسیار پیچیده تر و افزایش قدرت یادگیری هوش های مصنوعی، مقدور می گردد. ممکن است؛ در آینده، قدرت هوش های مصنوعی - که عمل کردی مشابه مغز دارند - به اندازه ای افزایش یابد که بتوانند بهتر از انسان، کار کنند. ابر رایانه ی تایتان؛ دومین ابر رایانه ی فعلی دنیا _______________________________ 1- کودا مخفف عبارت « Compute Unified Device Architecture » است. این فن آوری به وسیله شرکت انودیا و بر پایه پردازش موازی، ایجاد شد.
شنبه ، ۲۶دی۱۳۹۴
[مشاهده متن کامل خبر]
این صفحه را در گوگل محبوب کنید
[ارسال شده از: سایبربان]
[تعداد بازديد از اين مطلب: 16]