زهرا وجدانی: کافه علم دانشگاه صنعتی امیرکبیر امروز میزبان دانشجویان داخلی و خارجی بود؛ نشستی که با حضور دانشجویانی از دانشگاههای علوم پزشکی ایران، دانشگاه صنعتی امیرکبیر و همچنین دانشجویان خارجی مقیم ایران از کشورهایی، چون عراق، یمن و آذربایجان برگزار شد. در این نشست وهاب میررکنی، برنده ایرانی جایزه مصطفی (ص) ۲۰۲۵ درباره طرح نوآورانه خود در زمینه توسعه الگوریتمهای هش حساس به مجاورت مبتنی بر توزیعهای پایدار سخن گفت و به تشریح اهمیت و کاربردهای این رویکرد در دنیای پردازش دادههای عظیم پرداخت.
چالش سرعت و دقت در فضای دادههای پرابعاد
میررکنی در آغاز سخنانش به چالش اساسی سرعت و دقت در پردازش دادههای با ابعاد بالا اشاره کرد و توضیح داد: افزایش سرعت در این فضا اغلب به بهای کاهش دقت در سطوح پایینتر تمام میشود و همین مسئله میتواند موجب افت کارایی مدلهای اولیه شود.
او تأکید کرد: از نظر تئوری ساخت مدلی واحد و دقیق برای همه دادهها ممکن نیست. در عمل باید برخی دادهها را فشردهتر و بهینهتر پردازش کرد تا تعادل میان دقت و سرعت حفظ شود.
این دانشمند ایرانی یادآور شد: افزایش ابعاد دادهها دقت بیشتری به همراه دارد، اما در مقابل زمان اجرای الگوریتمها را بهطور چشمگیری افزایش میدهد؛ بنابراین مهمترین مسئله، یافتن نقطه تعادل میان دقت و سرعت است.
کاهش ابعاد داده و اهمیت انتخاب توابع هش
میررکنی در ادامه درباره پیچیدگیهای کاهش ابعاد توضیح داد: در فضاهای بسیار پربُعد، مفهوم شباهت میان دادهها بهشدت تضعیف میشود و تقریباً همه دادهها مشابه یکدیگر به نظر میرسند. اگر فرآیند کاهش ابعاد دقیق انجام نشود، عملکرد الگوریتم در ابعاد پایینتر بهطور محسوسی افت خواهد کرد.
او برای توضیح این موضوع مثالی ساده مطرح کرد: فرض کنید شیئی در فضای سهبعدی دارید و نورهای متعددی بهصورت تصادفی، اما ساختارمند بر آن میتابد. سایههای دوبعدی حاصل از این تابش میتوانند اطلاعات کلیدی جسم را منتقل کنند. همین قیاس ساده نشان میدهد که چگونه انتخاب درست توابع هش میتواند به حفظ اطلاعات اصلی در فرآیند کاهش ابعاد کمک کند.
ایدهای که از یک پروژه درسی شروع شد
میررکنی در روایت شخصی خود از روند شکلگیری این پژوهش گفت: زمانی در رشته ریاضی کاربردی در MIT مشغول بودم، اما عملاً بیشتر در حوزه علوم کامپیوتر فعالیت میکردم. در همان دوره با پروفسور دادلی آشنا شدم که در زمینه تئوری احتمال و هندسه ریاضی بسیار فعال بود. منابعی که از طریق او شناختم، افق تازهای پیش روی من گشود و امکان تحلیلهای دقیقتری را فراهم کرد.
وی افزود: جالب اینجاست که ایده اصلی مقاله من، ابتدا در قالب یک پروژه درسی ساده و برای گرفتن نمره شکل گرفت، اما با پیگیری و پرداختن بیشتر به آن به مقالهای علمی با تأثیرگذاری بالا تبدیل شد. این تجربه نشان میدهد که ایدههای بزرگ الزاماً از همان ابتدا بزرگ نیستند بلکه گاهی نیازمند توجه و زمان بیشتر برای شکوفاییاند.
الگوریتمی برای هر نوع داده و فاصله
برنده جایزه مصطفی (ص) ۲۰۲۵ یکی از ویژگیهای خاص مقالهاش را چنین توصیف کرد: ما توانستیم نشان دهیم الگوریتم پیشنهادیمان نه تنها برای یک نوع خاص فاصله مثل ℓ₂ بلکه برای هر نوع متریک (metric) کارآمد است. این یعنی روش ما وابسته به داده یا ساختار خاصی نیست و در فضاهای متنوع نیز نتایج قابل اعتمادی دارد.
او افزود: الگوریتم ما هم از نظر تئوری غنی است و هم در عمل نتایج مطلوبی ارائه میدهد. علت سرعت بالای آن به استفاده از روابط ویژه میان توزیعهای تصادفی و حفظ ویژگی فاصلهها در فضاهای کمبعدی برمیگردد. از طرف دیگر پیادهسازی آن ساده است و قابلیت استفاده در محیطهای پویا، جریانهای داده (streaming) و حتی سیستمهای مقیاسپذیر را دارد.
الگوریتمهای حساس به شباهت در عمل
میررکنی در بخش دیگری از سخنانش درباره سازوکار الگوریتمهای حساس به شباهت (Locality Sensitive Hashing - LSH) توضیح داد: زمانی که دادهای جدید وارد سیستم میشود، توابع هش روی آن اعمال و مشخص میشود که در کدام bin قرار میگیرد. سپس تنها دادههای همان bin با داده هدف مقایسه میشوند، نه کل پایگاه داده. این کار موجب کاهش چشمگیر هزینه محاسباتی و افزایش سرعت میشود بیآنکه دقت فدا شود.
او با اشاره به کاربردهای گسترده LSH گفت: این الگوریتمها امروز در موتورهای جستوجو، سیستمهای توصیهگر، شبکههای اجتماعی، پلتفرمهایی مانند یوتیوب و حتی سامانههای تشخیص چهره بهکار گرفته میشوند. برای مثال در یوتیوب زمانی که میخواهید ویدئوهای مشابه را بیابید، چنین روشهایی امکان جستوجوی سریع و دقیق را فراهم میکنند.
کاربرد در هوش مصنوعی و آینده پژوهش
میررکنی در پاسخ به پرسشی درباره پیوند این الگوریتمها با هوش مصنوعی گفت: این روشها بهطور مستقیم در حوزههای مختلف یادگیری ماشین و هوش مصنوعی نقشآفرینی میکنند؛ از جستوجوی معنایی و فشردهسازی دادهها گرفته تا یافتن همسایگان نزدیک در مدلهای یادگیری عمیق و پردازش دادههای متنی و تصویری.
او در پایان با اشاره به آینده این حوزه خاطرنشان کرد: چالش اصلی بهینهسازی بیشتر الگوریتمها و طراحی روشهایی است که بتوانند متناسب با ویژگیهای خاص دادهها عمل کنند. با توجه به ظهور مداوم کاربردهای تازه، هر ایدهای که بتواند شباهت را سریعتر و دقیقتر تشخیص دهد، میتواند در طیف وسیعی از علوم، از بیوانفورماتیک تا علوم اجتماعی، بهکار گرفته شود. این همان جذابیتی است که حوزه الگوریتمهای مشابهیابی را برای آینده علم و فناوری بسیار مهم میسازد.
پژوهش این دانشمند ایرانی نشان داد که چگونه میتوان با ترکیب دانش نظری و نگاه کاربردی راهحلهایی نو برای چالشهای بزرگ دنیای داده و هوش مصنوعی ارائه کرد. الگوریتمهای حساس به شباهت که او بر آنها تمرکز دارد، امروز نهتنها در سطح علمی اهمیت دارند، بلکه بهطور مستقیم در زندگی روزمره، از موتورهای جستوجو و شبکههای اجتماعی تا پزشکی و بیوانفورماتیک، نقشآفرینی میکنند. این دستاورد نمونهای روشن است از اینکه چگونه یک ایده کوچک میتواند با پشتکار و پیگیری به تحولی بزرگ منجر شود و پرسشی اساسی را پیش روی ما بگذارد: گام بعدی هوش مصنوعی در مسیر سرعت و دقت چه خواهد بود؟
انتهای پیام/