2020上半年收集到的优质AI文章 – 开源框架&算法&数据集
1750亿参数,史上最大AI模型GPT-3上线:不仅会写文章、答题,还懂数学
GPT-3 1750亿参数少样本无需微调,网友:「调参侠」都没的当了
人类算力天花板?1750 亿参数的 AI 模型 GPT-3 引爆硅谷
语言模型GPT跨界CV,OpenAI揭示强算力Transformer具有通用性
10万视频,所有图像均获授权,Facebook创建大规模Deepfake数据集
模型压缩95%,MIT韩松等人提出新型Lite Transformer
受启于做梦,DeepMind 提出压缩 Transformer,并开源书本级数据集PG-19
DeepMind开源AlphaFold,蛋白质预测模型登上《Nature》
华为突破封锁,对标谷歌Dropout专利,开源自研算法Disout
超越谷歌MobileNet!华为提出端侧神经网络架构GhostNet|已开源
华为深度学习新模型DeepShift:移位和求反代替乘法,成本大降
谷歌发布TensorFlow,用于测试人工智能模型的隐私保护
谷歌、DeepMind强强联手再发布Dreamer:性能远超“前辈”PlaNet
谷歌最新发布数据集:Open Images V6 来了!新增局部叙事标注形式
官方解读,谷歌“T5”模型,如何突破迁移学习局限,实现多基准测试SOTA
MixNet了解一下,来自Google Brain最新SOTA移动AI架构
百度开源联邦学习框架 PaddleFL:简化大规模分布式集群部署
阿里开源 GNN 框架 Graph-Learn,实现了各类可复用模型和编程接口
阿里开源MNNKit:基于MNN的移动端深度学习SDK,支持安卓和iOS
预训练模型ProphetNet:根据未来文本信息进行自然语言生成
Facebook开源最大规模并行语料,45亿语料,覆盖576种语言对
微软发布史上最大NLG模型:基于Transformer架构,170亿参数加持
微软研究院开源编程语言Verona,借鉴Rust、Cyclone等特性
Bengio参与、LeCun点赞:图神经网络权威基准现已开源
注:自2020-1 至 2020-7
2020-8-3 整理与苏州市。
2020上半年收集到的优质AI文章 – 开源框架&算法&数据集
原文:https://www.cnblogs.com/DicksonJYL/p/13434108.html