====
Paper
====

======
Python
=====
=

=========
Tensorflow
=========

=======
PyTorch
=======

=====
Keras
=====

=======
Topics
=======

====
Link
====

====
Video

====

==========
Drug Design

==========

==============
Material Science
==============

=========
Economics
=========
=


===========
HuggingFace
===========


   
   

HuggingFace 10分钟快速入门

HuggingFace 10分钟快速入门(一),利用Transformers,Pipeline探索AI。  
HuggingFace快速入门(二),利用AI模型快速搭建APP。  
HuggingFace 快速入门(三),HF的Agent快速搭建AI Agent  
HuggingFace 快速入门(四),玩转HF上的模型  
   
   
   
   
   
   
   

新技术

有了它,程序员的效率翻10倍!GPT Engineer项目介绍及安装教程
AI Agent 智能体是什么?为什么最近如此火爆?它是AI的爆发的机会吗?
 
 
 
 
 
 
 
 

 

 

 



Huggingface transformers

Huggingface Transformers 是基于一个开源基于 transformer 模型结构提供的预训练语言库,它支持 Pytorch,Tensorflow2.0,并且支持两个框架的相互转换。框架支持了最新的各种NLP预训练语言模型,使用者可以很快速的进行模型的调用,并且支持模型further pretraining 和 下游任务fine-tuning。 该库是使用 BERT 等预训练模型的最常用的库,甚至超过了google等开源的源代码。它的设计原则保证了它支持各种不同的预训练模型,并且有统一的合理的规范。使用者可以很方便的进行模型的下载,以及使用。同时,它支持用户自己上传自己的预训练模型到Model Hub中,提供其他用户使用。对于NLP从业者,可以使用这个库,很方便地进行自然语言理解(NLU) 和 自然语言生成(NLG)任务的SOTA模型使用。