|
|
|
|
34 |
Meta对Transformer架构下手了:新注意力机制更懂推理 |
33 |
不到1000行代码,PyTorch团队让Llama 7B提速10倍 |
32 |
大语言模型(LLM)综述与实用指南 (7.23) |
31 |
Nature总结六大ChatGPT编程技巧:非常强大的编程辅助工具 (6.8) |
30 |
斯坦福训练Transformer替代模型 (6.8) |
29 |
对话AI奠基人谢诺夫斯基:一切都将在你的有生之年发生转变 (6.18 |
28 |
AutoGPT太火了,无需人类插手自主完成任务,GitHub2.7万星(4.12) |
27 |
ChatGPT 能自己跑代码了!(4.8) |
26 |
通用人工智能的星火:基于GPT-4的早期研究(4.7) |
25 |
GPT-4 Copilot X震撼来袭!AI写代码效率10倍提升,码农遭降维打击(3.24) |
24 |
万字长文教你全面了解 GPT-4!(3.16) |
23 |
GPT4震撼发布!哈佛教授:程序员职业3年内将被终结(3.15) |
22 |
被GPT-4炸懵了?一文解读GPT-4模型特征与训练信息(3.15) |
21 |
Nature|ChatGPT应用于科学研究的5个重点问题 (2.14) |
20 |
试用ChatGPT有感:一个新时代正拉开序幕。(2.4) |
19 |
深度学习先驱者 Geoffrey Hinton 发布新深度学习算法(2.2) |
18 |
综述专栏】多模态学习综述及最新方向(2.2) |
17 |
GNN论文周报丨8篇 ICLR 2023 高分GNN论文(2.2)
|
16 |
ChatGPT会成为下一代搜索引擎吗?(1.29) |
15 |
图灵奖得主LeCun评ChatGPT不算创新,被网友骂柠檬精(1.25) |
14 |
谷歌推出深度学习调优手册,不到一天狂揽1200星,Hinton转发|GitHub(1.20) |
13 |
笑死!ChatGPT竟然出现在论文共同作者栏:我研究我自己,怎么啦?(1.13) |
12 |
我用ChatGPT写神经网络:一字不改,结果竟然很好用(1.13) |
11 |
微软又给谷歌「双重暴击」,ChatGPT或将加入Word、PPT和Excel!(1.12) |
10 |
百度2023最新提出的长周期多元时间序列预测模型Conformer(1.12) |
9 |
编程的终结:经典计算机领域正迎来剧变 (1.11) |
8 |
高精度压缩Transformer,NNI剪枝一站式指南 (1.11) |
7 |
最新综述:详细分析14种可用于时间序列预测的损失函数 (1.11) |
6 |
神经网络解微分方程综述(附代码链接)(1.10) |
5 |
张俊林:由ChatGPT反思大语言模型(LLM)的技术精要(1.10) |
4 |
Transformer如何用到强化学习中? 清华等最新《Transformer强化学习》综述论文详述进展 (1.10) |
3 |
9位院士12位专家联合撰文:智能计算的新进展、挑战与未来 | Science合作期刊(1.9) |
2 |
DALL-E和Flamingo能相互理解吗?三个预训练SOTA神经网络统一图像和文本(1.8) |
1 |
ChatGPT 为啥那么牛?语言模型足够大就会涌现出新能力 (1.7) |