NEUROLANCER @neurolancer Channel on Telegram

NEUROLANCER

@neurolancer


Let's write the future of neuroscience together

راه ارتباطی:
@bahramsanaei

NEUROLANCER (English)

Are you passionate about neuroscience and eager to explore the latest advancements in the field? Look no further than NEUROLANCER, a Telegram channel dedicated to writing the future of neuroscience together. This channel is a hub for like-minded individuals who are interested in delving into the mysteries of the brain and uncovering the secrets of the mind.nnNEUROLANCER provides a platform for members to engage in discussions, share valuable insights, and stay updated on the most recent research in neuroscience. Whether you are a student, researcher, or simply someone fascinated by the complexities of the human brain, this channel offers a wealth of knowledge and resources to satisfy your curiosity.nnJoin NEUROLANCER today and become part of a vibrant community that is passionate about unraveling the mysteries of the mind. Let's work together to push the boundaries of neuroscience and shape the future of this fascinating field!nnFor more information and to join the discussion, please contact @bahramsanaei.

NEUROLANCER

11 Oct, 07:00


Neurolancer
NLGroup

NEUROLANCER

11 Oct, 06:53


اعصاب جمجمه ای

Neurolancer
NLGroup

NEUROLANCER

09 Oct, 09:47


مروری بر اعصاب جمجمه ای

اعصاب جمجمه ای مجموعه ای از دوازده عصب جفتی هستند که مستقیماً از مغز و ساقه مغز بیرون می آیند و نقش اساسی در عملکردهای حسی و حرکتی دارند. برخلاف اکثر اعصاب محیطی که اطلاعات را از طریق نخاع منتقل می کنند، اعصاب جمجمه ای یک خط مستقیم بین مغز و اهداف خاص در سر، گردن و فراتر از آن ایجاد می کنند.

این آرایش منحصر به فرد به آنها اجازه می دهد تا طیف گسترده ای از فرآیندهای فیزیولوژیکی، از ادراک حسی گرفته تا کنترل حرکتی و تنظیم خودکار را واسطه کنند.

Neurolancer
NLGroup

NEUROLANCER

08 Oct, 11:05


جان جی. هاپفیلد: پیشگام شبکه‌های عصبی

جان جی. هاپفیلد یکی از چهره‌های برجسته در حوزه هوش مصنوعی و به ویژه شبکه‌های عصبی مصنوعی است. او با معرفی شبکه‌های هاپفیلد، نقش مهمی در توسعه و پیشرفت این حوزه ایفا کرد.

شبکه‌های هاپفیلد: حافظه‌های تداعی‌گر
شبکه‌های هاپفیلد نوعی شبکه عصبی بازگشتی هستند که به عنوان حافظه‌های تداعی‌گر عمل می‌کنند.
این شبکه‌ها قادرند الگوهای ورودی را ذخیره کرده و با ارائه یک الگوی ناقص یا نویزی، الگوی کامل را بازسازی کنند.
این ویژگی، شبکه‌های هاپفیلد را به ابزاری قدرتمند برای حل مسائل بهینه‌سازی و یادگیری تبدیل کرد.

سهم هاپفیلد در یادگیری ماشین
معرفی شبکه‌های هاپفیلد:

هاپفیلد با معرفی شبکه‌های ههاپفیلد، مفهوم شبکه‌های عصبی را به عنوان حافظه‌های تداعی‌گر گسترش داد و به محققان نشان داد که این شبکه‌ها قادر به انجام وظایف پیچیده‌تر از صرفاً طبقه‌بندی داده‌ها هستند.

* استفاده از فیزیک آماری:

هاپفیلد از مفاهیم فیزیک آماری برای تحلیل رفتار شبکه‌های عصبی استفاده کرد و به درک عمیق‌تری از مکانیزم‌های یادگیری در این شبکه‌ها دست یافت.

* الهام‌بخش برای تحقیقات بعدی: کار هاپفیلد الهام‌بخش بسیاری از محققان در حوزه شبکه‌های عصبی شد و به توسعه مدل‌های پیچیده‌تر و قدرتمندتر منجر شد.

تأثیر بر پیشرفت هوش مصنوعی
* بنیان‌گذاری مفهوم حافظه تداعی‌گر
:
شبکه‌های هاپفیلد مفهوم حافظه تداعی‌گر را در شبکه‌های عصبی معرفی کردند که بعدها در توسعه مدل‌های حافظه کوتاه‌مدت و بلندمدت (LSTM) و شبکه‌های حافظه تکرارشونده (RNN) مورد استفاده قرار گرفت.

* الهام‌بخش برای توسعه الگوریتم‌های یادگیری:
الگوریتم‌های یادگیری استفاده شده در شبکه‌های هاپفیلد، مانند قانون هب، پایه و اساس بسیاری از الگوریتم‌های یادگیری مدرن را تشکیل می‌دهند.

* کاربرد در مسائل بهینه‌سازی: شبکه‌های هاپفیلد می‌توانند برای حل مسائل بهینه‌سازی ترکیبی استفاده شوند و به همین دلیل در حوزه‌هایی مانند طراحی مدارهای مجتمع و برنامه‌ریزی تولید کاربرد دارند.

اهمیت تاریخی
کارهای هاپفیلد در دهه 1980 و اوایل دهه 1990، در دوره زمستانی هوش مصنوعی، انجام شد. در آن زمان، علاقه به شبکه‌های عصبی کاهش یافته بود، اما کارهای هاپفیلد به احیای مجدد این حوزه کمک کرد. امروزه، شبکه‌های عصبی عمیق، که از ایده‌های اولیه شبکه‌های هاپفیلد الهام گرفته‌اند، در بسیاری از کاربردهای هوش مصنوعی از جمله پردازش زبان طبیعی، بینایی ماشین و یادگیری تقویتی استفاده می‌شوند.

به طور خلاصه، جان جی. هاپفیلد با معرفی شبکه‌های هاپفیلد و استفاده از مفاهیم فیزیک آماری در شبکه‌های عصبی، نقش مهمی در توسعه هوش مصنوعی و به ویژه شبکه‌های عصبی ایفا کرد. کارهای او به عنوان پایه و اساس بسیاری از پیشرفت‌های اخیر در این حوزه شناخته می‌شود.
Neurolancer
NLGroup

NEUROLANCER

08 Oct, 10:57


یادگیری ماشین - امروز و فردا
به لطف کار آنها از دهه 1980 به بعد، جان هاپفیلد و جفری هینتون به ایجاد پایه‌های انقلاب یادگیری ماشین که در حدود سال 2010 آغاز شد، کمک کرده‌اند.

توسعه‌ای که اکنون شاهد آن هستیم، از طریق دسترسی به مقادیر عظیمی از داده‌ها که می‌توانند برای آموزش شبکه‌ها استفاده شوند و از طریق افزایش چشمگیر قدرت محاسباتی امکان‌پذیر شده است.

شبکه‌های عصبی مصنوعی امروزی اغلب بسیار بزرگ هستند و از لایه‌های بسیاری ساخته شده‌اند. اینها شبکه‌های عصبی عمیق نامیده می‌شوند و نحوه آموزش آن‌ها یادگیری عمیق نامیده می‌شود.

یک نگاه سریع به مقاله هاپفیلد در مورد حافظه تداعی، از سال 1982، برخی دیدگاه‌ها را در مورد این توسعه ارائه می‌دهد. در آن، او از یک شبکه با 30 گره استفاده کرد. اگر همه گره‌ها به یکدیگر متصل شوند، 435 اتصال وجود دارد. گره‌ها مقادیر خود را دارند، اتصالات قدرت‌های مختلفی دارند و در مجموع کمتر از 500 پارامتر برای ردیابی وجود دارد. او همچنین یک شبکه با 100 گره را امتحان کرد، اما با توجه به رایانه‌ای که در آن زمان استفاده می‌کرد، این بسیار پیچیده بود. می‌توانیم این را با مدل‌های زبانی بزرگ امروز مقایسه کنیم که به عنوان شبکه‌هایی ساخته شده‌اند که می‌توانند بیش از یک تریلیون پارامتر (یک میلیون میلیون) داشته باشند.

بسیاری از محققان اکنون در حال توسعه زمینه‌های کاربرد یادگیری ماشین هستند. اینکه کدام یک عملی‌تر خواهد بود، باید مشخص شود، در حالی که همچنین بحث گسترده‌ای در مورد مسائل اخلاقی که توسعه و استفاده از این فناوری را احاطه کرده‌اند، وجود دارد.

از آنجایی که فیزیک ابزارهایی را برای توسعه یادگیری ماشین ارائه کرده است، جالب است که ببینیم چگونه فیزیک، به عنوان یک زمینه تحقیقاتی، از شبکه‌های عصبی مصنوعی نیز بهره‌مند می‌شود.

یادگیری ماشین مدتهاست که در حوزه‌هایی که ممکن است از جوایز نوبل قبلی در فیزیک آشنا باشیم، استفاده می‌شود. این شامل استفاده از یادگیری ماشین برای غربالگری و پردازش مقادیر عظیمی از داده‌های لازم برای کشف ذره هیگز است.

سایر کاربردها شامل کاهش نویز در اندازه‌گیری‌های امواج گرانشی ناشی از برخورد سیاهچاله‌ها یا جستجوی سیارات فراخورشیدی است.

در سال‌های اخیر، این فناوری همچنین شروع به استفاده در هنگام محاسبه و پیش‌بینی خواص مولکول‌ها و مواد شده است - مانند محاسبه ساختار مولکول‌های پروتئین، که عملکرد آن‌ها را تعیین می‌کند، یا کار کردن با نسخه‌های جدیدی از یک ماده که ممکن است بهترین خواص برای استفاده در سلول‌های خورشیدی کارآمدتر داشته باشند.

Neurolancer
NLGroup

NEUROLANCER

08 Oct, 10:55


ماشین بولتزمن می‌تواند یاد بگیرد - نه از دستورالعمل‌ها، بلکه با دریافت مثال‌ها.

آن با به‌روزرسانی مقادیر در اتصالات شبکه آموزش داده می‌شود تا الگوهای مثالی که هنگام آموزش به گره‌های قابل مشاهده تغذیه می‌شدند، بالاترین احتمال ممکن برای وقوع را داشته باشند زمانی که ماشین اجرا می‌شود.
اگر همان الگو چندین بار در طول این آموزش تکرار شود، احتمال این الگو حتی بالاتر است. آموزش همچنین بر احتمال خروجی الگوهای جدید تأثیر می‌گذارد که شبیه مثال‌هایی هستند که ماشین بر روی آن‌ها آموزش دیده است.

یک ماشین بولتزمن آموزش‌دیده می‌تواند ویژگی‌های آشنا را در اطلاعاتی که قبلاً ندیده است، تشخیص دهد. تصور کنید با خواهر یا برادر یک دوست خود ملاقات کنید، و می‌توانید بلافاصله ببینید که آن‌ها باید مرتبط باشند.
به طور مشابه، ماشین بولتزمن می‌تواند یک مثال کاملاً جدید را تشخیص دهد اگر متعلق به یک دسته موجود در مواد آموزشی باشد و آن را از موادی که متفاوت هستند، تمایز دهد.

به شکل اصلی خود، ماشین بولتزمن نسبتاً ناکارآمد است و زمان زیادی برای یافتن راه‌حل‌ها می‌گیرد. اوضاع زمانی جالب‌تر می‌شود که به روش‌های مختلف توسعه یابد، که هینتون همچنان به کاوش در آن ادامه داده است. نسخه‌های بعدی نازک‌تر شده‌اند، زیرا اتصالات بین برخی از واحدها حذف شده است. معلوم می‌شود که این ممکن است ماشین را کارآمدتر کند.

در طول دهه 1990، بسیاری از محققان علاقه خود را به شبکه‌های عصبی مصنوعی از دست دادند، اما هینتون یکی از کسانی بود که همچنان در این زمینه کار می‌کرد.

او همچنین به شروع انفجار جدید نتایج هیجان‌انگیز کمک کرد؛ در سال 2006 او و همکارانش سیمون اسیندرو، یی وای ته و روسلان سالاخوتدینوف روشی را برای پیش‌آموزش یک شبکه با یک سری ماشین‌های بولتزمن در لایه‌ها، یک روی دیگری، توسعه دادند. این پیش‌آموزش به اتصالات در شبکه یک نقطه شروع بهتر داد، که آموزش آن را برای تشخیص عناصر در تصاویر بهینه کرد.

ماشین بولتزمن اغلب به عنوان بخشی از یک شبکه بزرگ‌تر استفاده می‌شود. به عنوان مثال، می‌توان از آن برای توصیه فیلم‌ها یا سریال‌های تلویزیونی بر اساس ترجیحات بیننده استفاده کرد.
Neurolancer
NLGroup

NEUROLANCER

08 Oct, 10:53


هنگامی که هاپفیلد مقاله خود را در مورد حافظه تداعی منتشر کرد، جفری هینتون در دانشگاه کارنگی ملون در پیتسبورگ، ایالات متحده آمریکا مشغول به کار بود.

او پیش از این روانشناسی تجربی و هوش مصنوعی را در انگلستان و اسکاتلند مطالعه کرده بود و تعجب می‌کرد که آیا ماشین‌ها می‌توانند به روشی مشابه انسان‌ها الگوها را پردازش کنند، دسته‌های خود را برای مرتب‌سازی و تفسیر اطلاعات بیابند. همراه با همکار خود، ترنس سجناوسکی، هینتون از شبکه هاپفیلد شروع کرد و آن را برای ساخت چیزی جدید، با استفاده از ایده‌های فیزیک آماری، گسترش داد.

فیزیک آماری سیستم‌هایی را که از بسیاری عناصر مشابه تشکیل شده‌اند، مانند مولکول‌ها در یک گاز، توصیف می‌کند.

ردیابی تمام مولکول‌های جداگانه در گاز دشوار یا غیرممکن است، اما می‌توان آن‌ها را به صورت جمعی در نظر گرفت تا خواص کلی گاز مانند فشار یا دما را تعیین کرد. روش‌های بالقوه زیادی برای پخش شدن مولکول‌های گاز در حجم آن با سرعت‌های فردی و همچنان منجر شدن به خواص جمعی یکسان وجود دارد.

حالت‌هایی که اجزای فردی می‌توانند به طور مشترک در آن وجود داشته باشند، می‌توانند با استفاده از فیزیک آماری تحلیل شوند و احتمال وقوع آن‌ها محاسبه شود.

برخی از حالت‌ها از سایرین محتمل‌تر هستند؛ این به مقدار انرژی موجود بستگی دارد، که در یک معادله توسط فیزیکدان قرن نوزدهم، لودویگ بولتزمن، توصیف شده است. شبکه هینتون از آن معادله استفاده کرد و این روش در سال 1985 با نام چشمگیر ماشین بولتزمن منتشر شد.

تشخیص نمونه‌های جدید از همان نوع
ماشین بولتزمن معمولاً با دو نوع مختلف گره استفاده می‌شود.

اطلاعات به یک گروه تغذیه می‌شود که گره‌های قابل مشاهده نامیده می‌شوند. گره‌های دیگر یک لایه پنهان را تشکیل می‌دهند.

مقادیر و اتصالات گره‌های پنهان نیز به انرژی کل شبکه کمک می‌کنند.
ماشین با اعمال یک قانون برای به‌روزرسانی مقادیر گره‌ها یکی یکی اجرا می‌شود.

در نهایت ماشین وارد حالتی خواهد شد که الگوی گره‌ها می‌تواند تغییر کند، اما خواص کلی شبکه یکسان باقی می‌ماند. هر الگوی ممکن سپس یک احتمال خاص خواهد داشت که توسط انرژی شبکه مطابق با معادله بولتزمن تعیین می‌شود.
هنگامی که ماشین متوقف می‌شود، یک الگوی جدید ایجاد کرده است که ماشین بولتزمن را به یک نمونه اولیه از یک مدل مولد تبدیل می‌کند.


با آموزش های آینده نورولنسر همراه باشید:

* کاربردهای عملی ماشین بولتزمن در زمینه‌های مختلف

* مقایسه ماشین بولتزمن با دیگر مدل‌های مولد

* چالش‌ها و محدودیت‌های ماشین بولتزمن

NEUROLANCER

08 Oct, 10:48


اگر فقط یک الگو را ذخیره کنید، ممکن است این قابل توجه به نظر نرسد.

شاید تعجب کنید که چرا فقط تصویر خود را ذخیره نمی‌کنید و آن را با تصویر دیگری که در حال آزمایش است مقایسه نمی‌کنید، اما روش هاپفیلد خاص است زیرا چندین تصویر می‌توانند همزمان ذخیره شوند و شبکه معمولاً می‌تواند بین آن‌ها تمایز قائل شود.

هاپفیلد جستجوی شبکه برای یک حالت ذخیره شده را به غلتاندن یک توپ از طریق چشم‌اندازی از قله‌ها و دره‌ها، با اصطکاک که حرکت آن را کند می‌کند، تشبیه کرد. اگر توپ در مکان خاصی رها شود، به نزدیک‌ترین دره خواهد غلتید و در آنجا متوقف خواهد شد.

اگر به شبکه الگویی داده شود که نزدیک به یکی از الگوهای ذخیره شده باشد، به همین ترتیب، به جلو حرکت خواهد کرد تا در انتها به پایین یک دره در چشم‌انداز انرژی برسد، بنابراین نزدیک‌ترین الگو را در حافظه خود پیدا می‌کند.

شبکه هاپفیلد می‌تواند برای بازسازی داده‌هایی که حاوی نویز هستند یا بخشی از آن‌ها پاک شده است، استفاده شود.

هاپفیلد و دیگران به توسعه جزئیات نحوه عملکرد شبکه هاپفیلد ادامه داده‌اند، از جمله گره‌هایی که می‌توانند هر مقداری را ذخیره کنند، نه فقط صفر یا یک.

اگر گره‌ها را به عنوان پیکسل در یک تصویر تصور کنید، می‌توانند رنگ‌های مختلفی داشته باشند، نه فقط سیاه یا سفید.

روش‌های بهبودیافته امکان ذخیره تصاویر بیشتر و تمایز بین آن‌ها حتی زمانی که بسیار شبیه هستند را ممکن کرده است. به همان اندازه امکان شناسایی یا بازسازی هر اطلاعاتی وجود دارد، مشروط بر اینکه از بسیاری از نقاط داده ساخته شده باشد.

طبقه‌بندی با استفاده از فیزیک قرن نوزدهم

به خاطر آوردن یک تصویر یک چیز است، اما تفسیر آنچه را که نشان می‌دهد، کمی بیشتر نیاز دارد.

حتی کودکان بسیار کوچک می‌توانند به حیوانات مختلف اشاره کنند و با اطمینان بگویند که آیا این یک سگ، یک گربه یا یک سنجاب است. ممکن است گاهی اشتباه کنند، اما خیلی زود تقریباً همیشه درست هستند.

یک کودک حتی بدون دیدن هیچ نمودار یا توضیحی در مورد مفاهیمی مانند گونه یا پستاندار می‌تواند این را یاد بگیرد. پس از مواجهه با چند نمونه از هر نوع حیوان، دسته‌های مختلف در ذهن کودک قرار می‌گیرند.

مردم با تجربه محیط اطراف خود یاد می‌گیرند که یک گربه را بشناسند یا یک کلمه را درک کنند یا وارد یک اتاق شوند و متوجه تغییری شوند.

Neurolancer
NLGroup

NEUROLANCER

08 Oct, 10:43


در سال 1980، هاپفیلد سمت خود را در دانشگاه پرینستون، جایی که علایق تحقیقاتی او را خارج از حوزه‌هایی که همکارانش در فیزیک کار می‌کردند، ترک کرد و به سراسر قاره نقل مکان کرد.

او پیشنهاد استادی در شیمی و زیست‌شناسی در Caltech (موسسه فناوری کالیفرنیا) در پاسادنا، جنوب کالیفرنیا را پذیرفته بود. در آنجا، او به منابع رایانه‌ای دسترسی داشت که می‌توانست برای آزمایش رایگان و توسعه ایده‌های خود در مورد شبکه‌های عصبی استفاده کند.

با این حال، او بنیاد خود در فیزیک را رها نکرد، جایی که او الهام برای درک خود در مورد نحوه ظهور پدیده‌های جدید و جالب از سیستم‌هایی با بسیاری از اجزای کوچک که با هم کار می‌کنند، یافت.

او به ویژه از یادگیری در مورد مواد مغناطیسی که به دلیل اسپین اتمی خود دارای ویژگی‌های خاصی هستند، بهره‌مند شد - خاصیتی که هر اتم را به یک آهنربای کوچک تبدیل می‌کند.

اسپین‌های اتم‌های مجاور یکدیگر را تحت تأثیر قرار می‌دهند؛ این می‌تواند اجازه دهد حوزه‌هایی با اسپین در یک جهت تشکیل شوند. او توانست با استفاده از فیزیکی که نحوه توسعه مواد را هنگام تأثیر متقابل اسپین‌ها توصیف می‌کند، یک شبکه مدل با گره‌ها و اتصالات بسازد.

شبکه تصاویر را در یک چشم‌انداز ذخیره می‌کند

شبکه‌ای که هاپفیلد ساخت، دارای گره‌هایی است که همگی از طریق اتصالات با قدرت‌های مختلف به هم پیوسته‌اند. هر گره می‌تواند یک مقدار فردی را ذخیره کند - در کار اول هاپفیلد این می‌تواند 0 یا 1 باشد، مانند پیکسل‌های یک تصویر سیاه و سفید.

اگر فقط یک الگو را ذخیره کنید، ممکن است این قابل توجه به نظر نرسد.

شاید تعجب کنید که چرا فقط تصویر خود را ذخیره نمی‌کنید و آن را با تصویر دیگری که در حال آزمایش است مقایسه نمی‌کنید، اما روش هاپفیلد خاص است زیرا چندین تصویر می‌توانند همزمان ذخیره شوند و شبکه معمولاً می‌تواند بین آن‌ها تمایز قائل شود.

هاپفیلد جستجوی شبکه برای یک حالت ذخیره شده را به غلتاندن یک توپ از طریق چشم‌اندازی از قله‌ها و دره‌ها، با اصطکاک که حرکت آن را کند می‌کند، تشبیه کرد. اگر توپ در مکان خاصی رها شود، به نزدیک‌ترین دره خواهد غلتید و در آنجا متوقف خواهد شد. اگر به شبکه الگویی داده شود که نزدیک به یکی از الگوهای ذخیره شده باشد، به همین ترتیب، به جلو حرکت خواهد کرد تا در انتها به پایین یک دره در چشم‌انداز انرژی برسد، بنابراین نزدیک‌ترین الگو را در حافظه خود پیدا می‌کند.
شبکه هاپفیلد می‌تواند برای بازسازی داده‌هایی که حاوی نویز هستند یا بخشی از آن‌ها پاک شده است، استفاده شود.

هاپفیلد حالت کلی شبکه را با ویژگی‌ای توصیف کرد که معادل انرژی در سیستم اسپین یافت شده در فیزیک است؛ انرژی با استفاده از فرمولی محاسبه می‌شود که از تمام مقادیر گره‌ها و تمام قدرت‌های اتصالات بین آن‌ها استفاده می‌کند. شبکه هاپفیلد با تغذیه یک تصویر به گره‌ها، که به آن‌ها مقدار سیاه (0) یا سفید (1) داده می‌شود، برنامه‌ریزی می‌شود.

اتصالات شبکه سپس با استفاده از فرمول انرژی تنظیم می‌شوند، تا تصویر ذخیره شده انرژی کمی داشته باشد. هنگامی که الگوی دیگری به شبکه تغذیه می‌شود، یک قانون برای مرور گره‌ها یکی یکی و بررسی اینکه آیا شبکه انرژی کمتری دارد اگر مقدار آن گره تغییر کند، وجود دارد.

اگر معلوم شد که انرژی کاهش می‌یابد اگر یک پیکسل سیاه به جای سفید باشد، رنگ آن تغییر می‌کند. این روش ادامه می‌یابد تا زمانی که دیگر امکان یافتن بهبودهای دیگری وجود نداشته باشد. هنگامی که به این نقطه رسید، شبکه اغلب تصویر اصلی را که بر روی آن آموزش دیده بود، بازسازی کرده است.

Neurolancer
NLGroup

NEUROLANCER

08 Oct, 10:43


جایزه نوبل فیزیک ۲۰۲۴

برندگان جایزه نوبل فیزیک امسال از ابزارهای فیزیک برای ساخت روش‌هایی استفاده کردند که به پایه‌های یادگیری ماشینی قدرتمند امروزی کمک کرد.

جان هاپفیلد ساختاری ایجاد کرد که می‌تواند اطلاعات را ذخیره و بازسازی کند. جفری هینتون روشی را اختراع کرد که می‌تواند به طور مستقل ویژگی‌ها را در داده‌ها کشف کند و برای شبکه‌های عصبی مصنوعی بزرگی که اکنون در حال استفاده هستند، اهمیت دارد.

آن‌ها از فیزیک برای یافتن الگوها در اطلاعات استفاده کردند
بسیاری از افراد تجربه کرده‌اند که چگونه رایانه‌ها می‌توانند بین زبان‌ها ترجمه کنند، تصاویر را تفسیر کنند و حتی مکالمات معقولی انجام دهند.

آنچه شاید کمتر شناخته شده است این است که این نوع فناوری مدتهاست که برای تحقیق، از جمله مرتب‌سازی و تجزیه و تحلیل مقادیر عظیمی از داده‌ها، مهم بوده است.

توسعه یادگیری ماشین در پانزده تا بیست سال گذشته انفجاری بوده است و از ساختاری به نام شبکه عصبی مصنوعی استفاده می‌کند. امروزه وقتی در مورد هوش مصنوعی صحبت می‌کنیم، اغلب منظورمان این نوع فناوری است.

اگرچه رایانه‌ها نمی‌توانند فکر کنند، اما ماشین‌ها اکنون می‌توانند عملکردهایی مانند حافظه و یادگیری را تقلید کنند. برندگان جایزه نوبل فیزیک امسال به تحقق این امر کمک کرده‌اند. با استفاده از مفاهیم و روش‌های بنیادی فیزیک، آن‌ها فناوری‌هایی را توسعه داده‌اند که از ساختارهای موجود در شبکه‌ها برای پردازش اطلاعات استفاده می‌کنند.
یادگیری ماشین با نرم‌افزار سنتی متفاوت است که مانند نوعی دستور العمل کار می‌کند.
نرم‌افزار داده‌ها را دریافت می‌کند، که مطابق با یک شرح واضح پردازش می‌شود و نتایج را تولید می‌کند، درست مانند زمانی که کسی مواد تشکیل‌دهنده را جمع‌آوری می‌کند و با دنبال کردن یک دستور العمل، آنها را پردازش می‌کند و یک کیک درست می کند.
در عوض، در یادگیری ماشین، رایانه با مثال یاد می‌گیرد، که به آن امکان می‌دهد تا با مشکلاتی که بسیار مبهم و پیچیده هستند تا با دستورالعمل‌های گام به گام مدیریت شوند، مقابله کند. یک مثال تفسیر یک تصویر برای شناسایی اشیاء موجود در آن است.

تقلید از مغز
یک شبکه عصبی مصنوعی اطلاعات را با استفاده از کل ساختار شبکه خود پردازش می‌کند. این الهام در ابتدا از میل به درک نحوه عملکرد مغز ناشی شد. در دهه 1940، محققان شروع به استدلال در مورد ریاضیات زیربنای شبکه نورون‌ها و سیناپس‌های مغز کرده بودند. قطعه دیگری از این پازل از روانشناسی، به لطف فرضیه دانشمند اعصاب، دونالد هب، در مورد نحوه رخ دادن یادگیری به دلیل تقویت ارتباط بین نورون‌ها هنگام کار با هم، حاصل شد.


بعدها، این ایده‌ها با تلاش‌هایی برای بازسازی نحوه عملکرد شبکه مغز با ساخت شبکه‌های عصبی مصنوعی به عنوان شبیه‌سازی‌های رایانه‌ای دنبال شد. در این‌ها، نورون‌های مغز توسط گره‌هایی که مقادیر متفاوتی داده می‌شوند تقلید می‌شوند و سیناپس‌ها با اتصالات بین گره‌ها که می‌توانند قوی‌تر یا ضعیف‌تر شوند، نشان داده می‌شوند.

فرضیه دونالد هب هنوز هم به عنوان یکی از قوانین اساسی برای به‌روزرسانی شبکه‌های مصنوعی از طریق فرآیندی به نام آموزش استفاده می‌شود.

در اواخر دهه 1960، برخی نتایج نظری ناامیدکننده باعث شد بسیاری از محققان حدس بزنند که این شبکه‌های عصبی هرگز هیچ استفاده واقعی نخواهند داشت.
با این حال، علاقه به شبکه‌های عصبی مصنوعی در دهه 1980 دوباره بیدار شد، زمانی که چندین ایده مهم تأثیرگذار شدند، از جمله کار برندگان امسال.

حافظه تداعی گرا
تصور کنید که سعی دارید یک کلمه نسبتاً غیرمعمول را که به ندرت استفاده می‌کنید، مانند کلمه‌ای برای آن کف شیب‌دار که اغلب در سینماها و سالن‌های سخنرانی یافت می‌شود، به خاطر بیاورید. شما حافظه خود را جستجو می‌کنید. چیزی شبیه رمپ است... شاید راد...یال؟ نه، نه آن. ریک، این همان است!
این فرایند جستجوی کلمات مشابه برای یافتن کلمه درست، یادآور حافظه تداعی است که فیزیکدان جان هاپفیلد در سال 1982 کشف کرد.

شبکه هاپفیلد می‌تواند الگوها را ذخیره کند و روشی برای بازسازی آن‌ها دارد. هنگامی که شبکه یک الگوی ناقص یا کمی تحریف شده دریافت می‌کند، این روش می‌تواند الگوی ذخیره شده مشابه‌ترین را پیدا کند.


هاپفیلد پیش از این از زمینه خود در فیزیک برای بررسی مسائل نظری در زیست‌شناسی مولکولی استفاده کرده بود.

هنگامی که او به یک جلسه درباره علوم اعصاب دعوت شد، با تحقیقات در مورد ساختار مغز مواجه شد.

او از آنچه آموخت مجذوب شد و شروع به فکر کردن در مورد دینامیک شبکه‌های عصبی ساده کرد. هنگامی که نورون‌ها با هم عمل می‌کنند، می‌توانند ویژگی‌های جدید و قدرتمند را ایجاد کنند که برای کسی که فقط به اجزای جداگانه شبکه نگاه می‌کند، آشکار نیست.

Neurolancer
NLGroup

NEUROLANCER

08 Oct, 10:31


نوروساینس و فیزیک

در یک رویداد تاریخی، برندگان جایزه نوبل فیزیک 2024 با نشان دادن نقش حیاتی نوروساینس در پیشرفت‌های اخیر فیزیک، مرزهای دانش را جابه‌جا کردند.

تحقیقات پیشگامانه این دانشمندان نشان داده است که با الهام از ساختار پیچیده مغز، می‌توان به مدل‌های محاسباتی قدرتمندی دست یافت که قادر به حل برخی از چالش‌برانگیزترین مسائل در فیزیک هستند.

Neurolancer
NLGroup

NEUROLANCER

08 Oct, 10:21


آیا می‌دانستید که شبکه عصبی مصنوعی برای تقلید از مغز طراحی شده است؟

شبکه‌های عصبی مصنوعی، الهام گرفته از نورون‌های بیولوژیکی در مغز، مجموعه‌های بزرگی از «نورون‌ها» یا گره‌ها هستند که توسط «سیناپس‌ها» یا اتصال‌های وزنی به هم متصل شده‌اند و برای انجام وظایف خاصی آموزش داده می‌شوند.

یک شبکه عصبی مصنوعی اطلاعات را با استفاده از کل ساختار شبکه خود پردازش می‌کند. این الهام در ابتدا از میل به درک نحوه عملکرد مغز ناشی شد.
لینک منبع

Neurolancer
NLGroup

NEUROLANCER

08 Oct, 10:19


برندگان جایزه نوبل فیزیک 2024 از ابزارهای فیزیک برای ساخت روش‌هایی استفاده کردند که به پایه‌های یادگیری ماشینی قدرتمند امروزی کمک کرد.

جان هاپفیلد ساختاری ایجاد کرد که می‌تواند اطلاعات را ذخیره و بازسازی کند. جفری هینتون روشی را اختراع کرد که می‌تواند به طور مستقل ویژگی‌ها را در داده‌ها کشف کند و برای شبکه‌های عصبی مصنوعی بزرگی که اکنون در حال استفاده هستند، اهمیت دارد.

اگرچه رایانه‌ها نمی‌توانند فکر کنند، اما ماشین‌ها اکنون می‌توانند عملکردهایی مانند حافظه و یادگیری را تقلید کنند.

برندگان جایزه نوبل فیزیک امسال به تحقق این امر کمک کرده‌اند. با استفاده از مفاهیم و روش‌های بنیادی فیزیک، آن‌ها فناوری‌هایی را توسعه داده‌اند که از ساختارهای موجود در شبکه‌ها برای پردازش اطلاعات استفاده می‌کنند.

لینک خبر

Neurolancer
NLGroup

NEUROLANCER

07 Oct, 20:17


لیست رسانه تصویری نورولنسر

مستند ماهی درون شما قسمت اول
مستند ماهی درون شما قسمت دوم
مستند ماهی درون شما قسمت سوم و آخر
چرا رفتار ما انسان ها اینقدر عجیب است؟
آیا ما خودمان قادر به تغییر دادن خودمان هستیم؟
مناظره جنجالی کوین میچل و پروفسور ساپولسکی
معرفی آخرین کتاب رابرت ساپولسکی ‘تعیین شده’ قسمت اول
معرفی آخرین کتاب رابرت ساپولسکی ‘تعیین شده’ قسمت دوم
معرفی آخرین کتاب رابرت ساپولسکی ‘تعیین شده’ قسمت سوم
مستند حیوانات باهوش قسمت اول
مستند حیوانات باهوش قسمت دوم
ساپولسکی ادعای خود را نمیفهمد
ساپولسکی در مورد ظهور و پیچیدگی سخنرانی میکند
مستند COSYNE قسمت اول
مستند COSYNE قسمت دوم
مستند COSYNE قسمت سوم
مستند COSYNE قسمت چهارم
مستند COSYNE قسمت پنجم
مستند COSYNE قسمت ششم
مستند COSYNE قسمت هفتم
مستند COSYNE قسمت هشتم
مستند COSYNE قسمت نهم
مستند COSYNE قسمت دهم
مستند COSYNE قسمت یازدهم
گفتگو با دکتر میرشهرام صفری
سریال مسئله سه جسم قسمت اول
سریال مسئله سه جسم قسمت دوم
سریال مسئله سه جسم قسمت سوم
سریال مسئله سه جسم قسمت چهارم
سریال مسئله سه جسم قسمت پنجم
سریال مسئله سه جسم قسمت ششم
سریال مسئله سه جسم قسمت هفتم
سریال مسئله سه جسم قسمت هشتم

Neurolancer
NLMEDIA
Neurolancer
NLGroup

NEUROLANCER

07 Oct, 20:13


Payam Piray

Professor of Psychology

Email
[email protected]
Office SGM 822

Office Phone (213) 740-6091

Links
Website

علایق تحقیقاتی او


چگونه مردم از مشاهدات ناقص و پر سر و صدا معنا می کنند؟
چگونه انسان ها در دنیایی نامعلوم تصمیم می گیرند و چگونه از اشتباهات خود یاد می گیرند؟
دکتر پیرای از ابزارهای محاسباتی یادگیری ماشین (یادگیری تقویتی، یادگیری ماشین بیزی) و ابزارهای آزمایشی علوم اعصاب شناختی (fMRI، واقعیت مجازی) برای مطالعه این مشکلات در سلامت و بیماری استفاده می کند.
دکتر پیرای دانشجویان تحصیلات تکمیلی را استخدام خواهد کرد.

Neurolancer
NLGroup

NEUROLANCER

07 Oct, 20:06


زمینه‌های تحقیقاتی

علوم روانشناسی که هدف آن درک احساسات، شناخت و رفتار انسان است، مبتنی بر تحقیقات انجام شده با گروه‌های سفید طبقه متوسط در کشورهای غربی است که کمتر از پنج درصد جمعیت جهان را تشکیل می‌دهند (Arnett, 2008).

از آنجا که مردم در سراسر جهان در زمینه‌های اجتماعی-فرهنگی، سیاسی و اقتصادی متفاوتی زندگی می‌کنند، یک پایگاه دانش مشتق شده از این بخش کوچک و انتخابی از جمعیت جهان به طور جهانی قابل اجرا نیست.

برنامه تحقیقاتی من در همکاری با دانشجویان و همکاران از دانشگاه میامی و در سراسر جهان، با هدف پر کردن این شکاف با کمک به درک آگاهانه فرهنگی از والدین، احساسات با پیامدهای عملی برای جوانان در پرجمعیت‌ترین کشورهای جهان و سریع‌ترین رشد گروه‌های اقلیت در ایالات متحده آمریکا انجام می‌شود.

علاقه من به این کار از پرسش در مورد آنچه در کتاب‌های درسی روانشناسی و مقالات ژورنالی در طول دوره‌های کارشناسی و تحصیلات تکمیلی خود بر اساس تجربیات زندگی در چندین جامعه در سه کشور خواندم، ناشی شد.

دوره‌های روانشناسی فرهنگی و روان‌پathology رشدی در مقطع تحصیلات تکمیلی و بورسیه پسادکترا با قرار گرفتن در معرض زمینه‌های فرهنگی، پزشکی و مردم‌شناسی روانشناختی، من را با چارچوب‌های فرهنگی و رشدی آشنا کرد که به ارائه یک پایه مفهومی برای تحقیق من کمک کرد. برنامه تحقیقاتی من بر سه حوزه مرتبط متمرکز است: یک خط کاری که در مقطع تحصیلات تکمیلی آغاز شد، بنیادهای فرهنگی و زمینه ای از اجتماعی شدن والدین از احساسات فرزندان خود و نحوه ارتباط این رویکردهای اجتماعی شدن با تنظیم احساسات کودکان و روان‌پathology درونی سازی آنها را بررسی می کند (به عنوان مثال، Raval & Martini 2011; Raval & Walker, 2019). این کار با تمرکز بیشتر بر اجتماعی شدن احساسات مثبت ادامه یافته است (Raval et al., 2019).

خط دوم تحقیق بر سلامت روان جهانی، درک تجربیات ذهنی مشکلات سلامت روان مانند افسردگی و خودکشی (Aggarwal et al., 2021)، آموزش در زمینه صلاحیت فرهنگی و سازگاری‌های فرهنگی مداخلات روانشناختی برای تنظیمات محدود منابع در سطح جهانی تمرکز دارد.

الهام گرفته از دانشجویان تحصیلات تکمیلی من که علاقه‌مند به بررسی تجربیات حاشیه‌سازی و سلامت روان در جوامع خود هستند، خط سوم تحقیق بر تجربیات تبعیض نژادی قومی، اجتماعی شدن نژادی قومی، احساسات در زمینه‌های برجسته نژادی و سلامت روان در جوامع متنوع نژادی و قومی در ایالات متحده آمریکا تمرکز دارد (به عنوان مثال، Daga & Raval، 2018; Raval et al., 2021).

https://miamioh.edu/profiles/cas/vaishali-raval.html

Neurolancer

NEUROLANCER

07 Oct, 20:03


Vaishali Raval

Global Health Research and Innovation Center, Global Health Studies, Psychology

Contact Info
[email protected]
513-529-6209
308 Psychology Building
Links
View CV
CARE Lab

https://miamioh.edu/profiles/cas/vaishali-raval.html

Neurolancer

NEUROLANCER

07 Oct, 20:00


دکتر ژانگ

دکتر ژانگ یک استادیار در بخش روانشناسی دانشگاه روتگرز است و همچنین با بخش علوم کامپیوتر و مرکز علوم شناختی روتگرز همکاری دارد.

دکتر ژانگ مدرک دکترای خود را در سال 2019 از دانشگاه کارنگی ملون در رشته یادگیری ماشین در دانشکده علوم کامپیوتر و مرکز پایه‌های عصبی شناخت دریافت کرد. او دوره پسادکترای خود را در موسسه علوم اعصاب پرینستون گذراند.


تحقیقات او ترکیبی از مدل‌سازی محاسباتی، روش‌های رفتاری و تصویربرداری عصبی برای درک حافظه انسان است.

او علاقه‌مند به نحوه استفاده سیستم حافظه انسان از منابع شناختی محدود خود برای بازیابی کارآمد تجربیات و دانش گذشته و چگونگی طراحی روش‌ها توسط محققان برای بهبود عملکرد حافظه انسان است.


دکتر ژانگ قصد دارد در سال آینده یک دانشجوی تحصیلات تکمیلی را بپذیرد.

https://psych.rutgers.edu/people/chair-v-cs/faculty-profile/1237-zhang-qiong

Neurolancer

1,061

subscribers

79

photos

31

videos