بارگذاری

برای جستجو تایپ کنید

هوش مصنوعی از کامپیوتر کوانتومی شکست خورد!

فناوری

هوش مصنوعی از کامپیوتر کوانتومی شکست خورد!

اشتراک گذاری
هوش مصنوعی از کامپیوتر کوانتومی شکست خورد!

تینا مزدکی_پژوهشگران شرکت‌های IBM و مدرنا موفق شده‌اند با استفاده از رایانش کوانتومی، طولانی‌ترین الگوی RNA پیام‌رسان یا به اختصار mRNA را بدون بهره‌گیری از هوش مصنوعی شبیه‌سازی کنند. آن‌ها با به‌کارگیری پردازنده کوانتومی R۲ Heron شرکت IBM و یک الگوریتم شبیه‌سازی کوانتومی، ساختار پیچیده یک رشته mRNA با طول ۶۰ نوکلئوتید را پیش‌بینی کردند؛ رکوردی که به عنوان طولانی‌ترین توالی mRNA شبیه‌سازی‌شده در یک رایانه کوانتومی تا امروز ثبت شده است.

RNA پیام‌رسان (Messenger RNA) یا mRNA مولکولی است که اطلاعات ژنتیکی را از DNA به ریبوزوم‌ها منتقل می‌کند و فرآیند سنتز پروتئین را در سلول‌ها هدایت می‌کند. علاوه بر این، RNA پیام‌رسان در ساخت واکسن‌های مؤثری به کار می‌رود که می‌توانند واکنش‌های ایمنی را برانگیزند.

به‌طور گسترده پذیرفته شده که تمام اطلاعات لازم برای دستیابی یک پروتئین به ساختار سه‌بعدی صحیح، در توالی اسیدهای آمینه یا همان فرآیند «تاخوردگی» آن نهفته است. هرچند mRNA تنها از یک رشته اسید آمینه تشکیل شده، اما دارای ساختار ثانویه‌ای است که شامل مجموعه‌ای از تاخوردگی‌ها می‌شود و شکل سه‌بعدی خاص هر مولکول را تعیین می‌کند. با افزودن هر نوکلئوتید جدید، تعداد حالت‌های ممکن برای این تاخوردگی‌ها به شکل نمایی افزایش می‌یابد؛ این مسئله پیش‌بینی شکل نهایی مولکول mRNA را در مقیاس‌های بزرگ به یک چالش بسیار پیچیده و دشوار تبدیل می‌کند.

آزمایش مشترک IBM و مدرنا که نتایج آن نخستین‌بار در «کنفرانس بین‌المللی ۲۰۲۴ رایانش و مهندسی کوانتومی IEEE» منتشر شد، نشان می‌دهد چگونه می‌توان از رایانش کوانتومی برای تقویت روش‌های سنتی پیش‌بینی ساختار مولکول‌ها استفاده کرد. به‌طور معمول، این پیش‌بینی‌ها بر پایه رایانه‌های دودویی کلاسیک و مدل‌های هوش مصنوعی، مانند AlphaFold شرکت گوگل دیپ‌مایند، انجام می‌شود. الگوریتم‌هایی که روی این روش‌های کلاسیک اجرا می‌شوند می‌توانند توالی‌های mRNA با «صدها یا هزاران نوکلئوتید» را پردازش کنند، اما این کار تنها با حذف ویژگی‌های پیچیده‌تری مانند «شبه‌گره‌ها» امکان‌پذیر است.

شبه‌گره‌ها، پیچ‌وتاب‌ها و شکل‌های پیچیده‌ای در ساختار ثانویه مولکول هستند که می‌توانند وارد برهم‌کنش‌های داخلی پیشرفته‌تری نسبت به تاخوردگی‌های معمولی شوند. حذف این ویژگی‌ها، دقت بالقوه هر مدل پیش‌بینی تاخوردگی پروتئین را به شکل بنیادی محدود می‌کند. درک و پیش‌بینی دقیق‌ترین جزئیات مربوط به تاخوردگی‌های پروتئینی مولکول mRNA برای ایجاد مدل‌های پیش‌بینی قوی‌تر و در نتیجه ساخت واکسن‌های مؤثرتر بر پایه mRNA اهمیت اساسی دارد.

دانشمندان امیدوارند با به‌کارگیری فناوری کوانتومی در کنار آزمایش‌های سنتی، بتوانند بر محدودیت‌های ذاتی قدرتمندترین ابررایانه‌ها و مدل‌های هوش مصنوعی غلبه کنند. در این پژوهش، محققان چندین آزمایش با استفاده از الگوریتم‌های شبیه‌سازی کوانتومی انجام دادند که برای مدل‌سازی مولکول‌ها به کیوبیت‌ها (معادل کوانتومی بیت‌های رایانه‌ای) متکی هستند.

هوش مصنوعی از کامپیوتر کوانتومی شکست خورد!

در مرحله نخست، تیم پژوهشی تنها از ۸۰ کیوبیت (از مجموع ۱۵۶ کیوبیت موجود) در واحد پردازش کوانتومی R۲ Heron استفاده کرد و یک الگوریتم بهینه‌سازی کوانتومی موسوم به الگوریتم کوانتومی واریاسیونی مبتنی بر ارزش در معرض خطر شرطی یا (CVaR-based VQA) را به کار گرفت. این الگوریتم که از برخی روش‌های تحلیل برهم‌کنش‌های پیچیده، مانند جلوگیری از برخورد در سامانه‌های ناوبری و ارزیابی ریسک مالی الهام گرفته، برای پیش‌بینی ساختار ثانویه پروتئینی یک توالی mRNA با طول ۶۰ نوکلئوتید استفاده شد.

به گفته نویسندگان این پژوهش، رکورد پیشین شبیه‌سازی با استفاده از مدل کوانتومی، مربوط به یک توالی ۴۲ نوکلئوتیدی بود. پژوهشگران در این آزمایش جدید، با بهره‌گیری از روش‌های تازه تصحیح خطا برای کاهش نویز ناشی از عملکردهای کوانتومی، مقیاس کار را گسترش دادند.

در مطالعه تازه که به‌صورت پیش‌انتشار منتشر شده، این تیم به‌طور آزمایشی نشان داد که الگوی تحقیقاتی آن‌ها توانایی اجرای شبیه‌سازی‌هایی با حداکثر ۱۵۶ کیوبیت را برای توالی‌های mRNA تا طول ۶۰ نوکلئوتید دارد. آن‌ها همچنین پژوهش‌های مقدماتی انجام دادند که پتانسیل استفاده از حداکثر ۳۵۴ کیوبیت را برای اجرای همان الگوریتم‌ها در محیط‌های بدون نویز نشان می‌دهد.

به گفته محققان، افزایش تعداد کیوبیت‌های مورد استفاده در اجرای الگوریتم، همراه با مقیاس‌پذیری الگوریتم‌ها برای زیرروال بیشتر، می‌تواند به شبیه‌سازی‌های دقیق‌تر و توانایی پیش‌بینی توالی‌های طولانی‌تر منجر شود. با این حال، آن‌ها تأکید کردند که این روش‌ها مستلزم توسعه تکنیک‌های پیشرفته برای جای‌گذاری مدارهای ویژه این نوع مسائل در سخت‌افزار کوانتومی موجود هستند؛ این موضوعی نشان می‌دهد پیشرفت این تحقیقات به الگوریتم‌ها و معماری‌های پردازشی پیشرفته‌تر نیاز دارد.

منبع: livescience

۲۲۷۳۲۳

پیام بگذارید

آدرس ایمیل شما منتشر نخواهد شد. قسمتهای مورد نیاز علامت گذاری شده اند *

3 × 3 =