کامپیوترهای کوانتومی و هوش‌مصنوعی

.در این مقاله به ترکیب  کامپیوترهای کوانتومی و هوش‌مصنوعی میپردازیم!

رایانش کوانتومی(Quantum computing)

رایانش کوانتومی به بخشی از تحقیقات علمی در زمینه کامپیوتر ها گفته می شود. که بر روی توسعه کامپیوتر هایی بر مبنای نظریه کوانتوم که طبیعت و رفتار انرژی و ماده را در سطح کوانتومی (اتمی و زیراتمی) مورد بررسی قرار می دهد متمرکز شده است.ترکیب کامپیوترهای کوانتومی و هوش‌مصنوعی امروزه یکی از هیجان انگیزترین چالش های دانشمندان و برنامه نویسان می باشد.

اختراع کامپیوتر های کوانتومی نشان دهنده ی جهشی عظیم در توانایی پردازش کامپیوتر ها، چه نسبت به ساده ترین آن ها (Abacus) گرفته و چه نسبت به ابرکامپیوتر های مدرن خواهد بود . در واقع، میزان بهبود عملکرد کامپیوترهای کوانتومی نسبت به کامپیوتر های فعلی در محدوده میلیون ها برابر بهتر می باشد. کامپیوتر کوانتومی با پیروی از قوانین فیزیک کوانتومی توان پردازش عظیمی را به دست خواهد آورد. این بهبود عملکرد از طریق توانایی داشتن چندین حالت مختلف و انجام دستورات مختلف با استفاده از تمام جایگشت های ممکن در یک زمان واحد به دست می آید. مراکز فعلی تحقیق در زمینه کامپیوتر های کوانتومی شامل MIT،IBM، دانشگاه آکسفورد و آزمایشگاه ملی Los Alamos می باشند.

مبانی اصلی کامپیوتر های کوانتومی در سال 1981 توسط Paul Benioff که در آزمایشگاه های ملی Argonne کار می کرد ایجاد شد. او به طور نظری یک کامپیوتر کلاسیک را طراحی کرد که با برخی از اصول مکانیک کوانتومی کار می کرد.

اما بنیان و پایه اصلی کامپیوترهای کوانتومی در سال 1982 میلادی توسط ریچارد فیلیپس فاینمن – فیزیکدان بزرگ و برنده جایزه نوبل – مطرح شد. او پیشنهاد کرد که میتوان محاسبات را از دنیای دیجیتال، به دنیای جدید کوانتوم وارد کرد. پیشنهادی که البته تا اوایل دهه 90 میلادی مورد توجه جدی قرار نگرفت، اما در سال 1994 پیتر شور که در یکی از دانشگاه های آمریکا مشغول به تحقیق بود، نخستین قدم برای ورود به این جهان جدید را برداشت.

 برخی از جامعه علمی بر این باور اند که  David Deutsch از دانشگاه آکسفورد انگیزه اصلی برای تحقیق در زمینه کامپیوتر های کوانتومی را ایجاد کرد. در سال 1984 به فکر طراحی کامپیوتر هایی افتاد که به صورت انحصاری از قوانین کوانتوم پیروی کنند. سپس چند ماه بعد او مقاله خود را به عنوان اولین مقاله در این زمینه منتشر کرد. با انتشار این مقاله رقابتی داغ برای بهره برداری از ایده های او به وجود آمد. اما قبل از این که به بررسی موضوعی که او آغازگرش بود بپردازیم بهتر است تا نگاهی به پس زمینه دنیای کوانتوم داشته باشیم.

Paul Benioff
David Deutsch

کامپیوترهای کوانتومی

ویژگی‌های اصلی کامپیوترهای معمولی مثل بیت‌، الگوریتم، گیت‌های منطقی و … به طور مشابه در کامپیوترهای کوانتومی هم وجود دارند. اصلی‌ترین جزء یک کامپیوتر کوانتومی، در واقع واحد پردازش اطلاعات، بیت کوانتومی یا کیوبیت است. عملکرد یک کیوبیت شاید کمی مبهم به نظر بیاید.

همان‌طور که می‌دانید یک بیت کلاسیک در هر لحظه تنها می‌تواند یکی از دو مقدار ۰ و ۱ را داشته باشد. اما یک کیوبیت در هر لحظه هم می‌تواند ۰ باشد و هم ۱ یا حتی هر چیزی دیگری بین ۰ و ۱ !. در واقع یک کیوبیت در حالت «برهمنهی» از حالت‌های پایه ۰ و ۱ است. برای مشخص شدن حالت کیوبیت باید آن را اندازه‌گیری کرد. در این صورت حالت برهمنهی فرو ریخته و کیوبیت با یک احتمالی در 0 و یا ۱ ظاهر می‌شود.

شکل: یک کیوبیت برخلاف بیت که تنها در یکی از دو حالت 0 و یا 1 است. می‌تواند هر حالتی بین این دو مقدار را داشته باشد.

کامپیوتر کوانتومی چگونه کار می‌کند؟

کامپیوتر کوانتومی ماشینی است که از پدیده‌ها و قوانین مکانیک کوانتوم برای انجام محاسباتش استفاده می‌کند که با رایانه‌های فعلی تفاوت اساسی داشته و سرعت حیرت‌انگیزی دارند. همچنین می‌توانند از خواص و قوانین فیزیک کوانتوم برای ذخیره‌سازی و انجام عملیات روی داده‌ها استفاده کنند.

مصداق فیزیکی یک بیت کلاسیکی می‌تواند دو سطح مختلف ولتاژ (مثلاً  0 و 5 ولت) یا روشن و خاموش شدن یک پالس لیزری باشد. هر سیستم دو حالته فیزیکی (ریزمقیاس) مانند اسپین بالا و پایین یک الکترون یا قطبش عمودی و افقی یک فوتون یا تغییر حالت یک اتم یا یون در سیستمی خاص می‌تواند برای تعریف کیوبیت به کار رود.

از آنجاییکه که سیستم‌های ریزمقیاس و کوانتومی به شدت نویز‌پذیر بوده و حالتشان تغییر می‌کند،  برای تعریف کیوبیت‌ها و یا پردازش و کنترل آن‌ها به مکانیزم‌هایی خاص و پیچیده نیاز داریم تا بتوانیم اتم، یون و … را در حالتی خاص قرار داده و یا به حالت‌های دیگر ببریم.

قرار دادن کیوبیت (اتم، یون، فوتون و …) در یک حالت خاص، مصداق ذخیره اطلاعات و تغییر حالت آن‌ها مصداق عمل پردازش بر روی کیوبیت‌ها است. برای حذف نویز و ایزوله کردن سیستم‌های کوانتومی از محیط بیرون معمولاً به تجهیزات گران‌قیمتی جهت مهیا ساختن خلأ بسیار بالا و یا سرد کردن تا نزدیکی صفر مطلق نیاز است.

کامپیوترهای کوانتومی و هوش‌مصنوعی

تا کنون روش‌های متفاوتی جهت کنترل کیوبیت‌ها، پیاده‌سازی گیت‌های کوانتومی و الگوریتم‌های کوانتومی ارائه شده‌اند که هر یک مزایا و معایب خاص خود را دارا هستند. یکی از این روش‌ها تعریف کیوبیت توسط نقاط کوانتومی است. نقاط کوانتومی که ذراتی نانومقیاس از نیمه‌رسانا بوده که شامل الکترون و حفره است.

یکی دیگر از روش‌هایی که نسبت به سایر روش‌ها پیچیدگی کمتری دارد، تعریف کیوبیت و پیاده‌سازی گیت‌های کوانتومی با استفاده از سیستم‌های اپتیک خطی و غیرخطی است. از آنجایی که فوتون‌ها نسبت به محیط بیرون و دیگر فوتون‌ها ایزوله هستند، گزینه‌ای مناسب و ارزان قیمت جهت تعریف کیوبیت‌ها هستند. چرا که برای کار با آن‌ها نیازی به دماهای خیلی سرد یا خلأ بالا نیست. البته این سیستم نیز مشکلات خاص خود را دارد. به طور مثال برای پیاده‌سازی گیت‌های چند کیوبیتی (۲ ورودی به بالا) نیاز به برهمکنش فوتون‌ها بوده که این برهمکنش تحت شرایطی خاص و به صورت احتمالی صورت می‌گیرد.

ترکیب کامپیوترهای کوانتومی و هوش‌مصنوعی

ترکیب کامپیوترهای کوانتومی و هوش‌مصنوعی می‌تواند بسیاری از پیشرفت‌های مورد انتظار در دنیای فناوری را فعال کند.به گفته کارشناسان قدرت رایانه‌های سنتی در حد پردازش داده‌ها بوده و جالب اینکه تولید داده‌ها روز به روز در حال رشد است.

این موارد به‌سادگی دلالت می‌کنند که ما برای پردازش داده‌ها در مقیاس گسترده، نیازمند محاسبات زیادی هستیم. چاره این کار، استفاده از پیشرفته‌ترین فناوری‌ها یعنی کامپیوترهای کوانتومی  و هوش مصنوعی است.

یک تحقیق توسط Research and Markets نشان می‌دهد که محاسبات کوانتومی و هوش مصنوعی با یکدیگر بسیار هم افزا هستند، زیرا محاسبات کوانتومی در حل مسئله به هوش مصنوعی سرعت می‌بخشد، و هوش مصنوعی یک ساختار یادگیری خودکار را برای محاسبات کوانتومی فراهم می‌کند. انتظار می‌رود که این ترکیب مزایای بسیاری از جمله کشف سریع‌تر پارامتر، تنظیم و حتی تنظیمات احتمالی الگوریتم را تسریع بخشد. این فراتر از واقعیت نیست که هوش مصنوعی ممکن است در مقطعی بر محدودیت‌های سخت‌افزاری محاسبات کوانتومی غلبه کند، و این امکان را به سیستم‌عامل‌ها بدهد تا به ماشین‌هایی با ابعاد کمتر تبدیل شوند.

محققان ایتالیایی نشان داده‌اند که امکان انتقال یک بیت کوانتومی یا (qubit) در آنچه که می‌تواند یک وضعیت دنیای واقعی نامیده شود، وجود دارد. آن‌ها این کار را توسط هوش مصنوعی انجام دادند. پدیده انتقال qubit  چیز جدیدی نیست، اما این کار که به سرپرستی Enrico Prati از انستیتوی فوتونیک و نانوتکنولوژی در میلان انجام شده، اولین باری است که در شرایطی انجام می‌شود که سیستم از شرایط ایدئال منحرف شده باشد.

این اولین بار است که یک کلاس از الگوریتم‌های یادگیری ماشین موسوم به یادگیری تقویت عمیق برای یک مسئله محاسبات کوانتومی اعمال شده است.به نظر می رسد در آینده شاهد پیشرفت هایی عظیم در زمینه ی کامپیوترهای کوانتومی و هوش‌مصنوعی باشیم.

برنامه نویسی کوانتومی

شاید حتی جذاب تر از قدرت کامپیوتر های کوانتومی  و هوش‌مصنوعی این نکته باشد که آن ها به ما اجازه می دهند تا برنامه ها را به روشی کاملا جدید بنویسیم. برای مثال یک کامپیوتر کوانتومی می تواند از یک توالی برنامه نویسی که مفهومش : ” تمام بر هم نهی های محاسبات قبلی را را ذخیره کن” است؛ استفاده کند. این دستور برای کامپیوتر های کلاسیک کاملا بی معنی است. البته همین دستور می تواند در حل بسیار سریع مسائل خاص ریاضی مانند پیدا کردن فاکتور های اعداد بزرگ به ما کمک کند. در ادامه به بررسی این مثال می پردازیم.

تاکنون 2 موفقیت قابل توجه در در زمینه برنامه نویسی کوانتومی اتفاق افتاده است :

اولین آن ها در سال 1994 توسط Peter Shor    (که در حال حاضر در آزمایشگاه های AT&T کار می کند) انجام شد. او یک الگوریتم کوانتومی طراحی کرد که می توانست به صورت موثر فاکتور های اعداد بزرگ را پیدا کند. مبنای اصلی این الگوریتم سیستمی است که از نظریه اعداد برای تخمین دوره تناوب یک دنباله عددی بزرگ استفاده می کند.

موفقیت چشمگیر دوم توسط Lov Grover در آزمایشگاه  Bell و در سال 1996 به دست آمد. او یک الگوریتم بسیار سریع طراحی کرد که ثابت شده سریع ترین الگوریتم ساخته شده برای جستجو در بانک های اطلاعاتی سازمان نیافته به شمار می رود. این الگوریتم آنقدر پر بازده است که به طور متوسط تنها به ریشه دوم N)  N تعداد عناصر موجود است) جستجو نیاز دارد تا نتیجه مورد نظر را پیدا کند. در حالی که همین مسئله در کامپیوتر های کلاسیک به N/2 جستجو نیاز دارد.

کامپیوترها صرف‌نظر از سرعت، تمایل دارند به‌صورت خطی فکر کنند،ولی انسان‌ها این‌گونه نیستند این فقط درباره تفاوت‌های بدنی بین پردازنده‌ها و مغز انسان نیست؛ این واقعیت است که مغز به‌طور موازی مقدار زیادی از اطلاعات را پردازش می‌کند، و کامپیوترهای کلاسیک نمی‌توانند این سطح عظیم موازی را تحمل کنند. اما با پیشرفت فناوری کامپیوترهای کوانتومی و هوش‌مصنوعی میتوانیم محاسبات بسیار عظیم را به صورت موازی انجام دهیم .

Related posts

Don't miss reading these posts!

کشف دارو با هوش مصنوعی گوگل

آنچه در این پست میخوانید حالا چرا پیشبینیِ در هم پیچیدگی پروتئین ها انقدر سخت است؟ کشف دارو با هوش…

ادامه مطلب

یادگیری عمیق با نور

آنچه در این پست میخوانید تبدیل وزن‌های مدل یادگیری عمیق به نور تریلیون‌ها ضرب بر ثانیه اگر از یه دستگاه…

ادامه مطلب

کمک هوش مصنوعی به انسان برای گفتگو با جانوران

آنچه در این پست میخوانید نقش هوش مصنوعی در کمک به انسان پیشینه پژوهش‌ها اگرچه انسان‌ها برای هزاران سال است…

ادامه مطلب

نظرات

نظرات خود را با ما در میان بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *