====
论文
====

======
Python
=====
=

=========
Tensorflow
=========

=======
PyTorch
=======

=====
Keras
=====

====
专题
====

====
链接
====

====
视频

====

=======
药物设计

=======

=======
材料科学
=======

============
经济学与金融学
==========
==


========
LoRa模型
====
==
==


详解LoRA等方法的运作原理 LoRA:大模型的低秩自适应微调模型
AI绘画:Lora模型训练完整流程! 不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了
清华提出 SoRA,参数量只有 LoRA 的 70%,表现更好!  
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   

 

 

 

LoRA模型

为了降低大模型微调的成本,微软的研究人员开发了低秩自适应(LoRA)技术。LoRA 的精妙之处在于,它相当于在原有大模型的基础上增加了一个可拆卸的插件,模型主体保持不变。LoRA 随插随用,轻巧方便。。