● در مقالهای از Meta AI، روشی جدید به نام TOKENTUNE برای بهینهسازی حافظه در آموزش مدلهای ترنسفورمر معرفی شده است. این روش با انتخاب زیرمجموعهای از توکنهای ورودی و ذخیرهسازی حداقلی فعالسازیها، نیاز به حافظه را در فرآیند آموزش به طرز چشمگیری کاهش میدهد.
● ویژگیهای کلیدی:
○ کاهش مصرف حافظه GPU تا ۷۹٪
○ با وجود کاهش حافظه، دقت در وظایف مختلف مانند طبقهبندی متن و پاسخدهی به سؤالات، مشابه روشهای مرسوم است.
○ این روش میتواند با دیگر روشهای بهینهسازی حافظه مانند LoRA و QLoRA ترکیب شود.
#مقاله #مدلهای_زبانی #بهینهسازی_حافظه
کانال انجمن علوم داده شبکه نخبگان ایران با ما همراه باشید 🌱
| @DataScience_Association |