f
E
首页
视频
F
发现
G
游戏
注册
登录
//img.t.sinajs.cn/t6/skin/skin048/skin.css?version=8d42223e
52nlp
互联网科技博主
+
关注
g
私信
=
悄悄关注
分享到微博
加入黑名单
投诉他
他的主页
他的相册
1801
关注
7.2万
粉丝
26888
微博
互联网科技博主
4
毕业于
中国科学技术大学
查看更多
a
微关系
他的关注(1800)
修改一个能用的昵称好困难
austingg
thinkpc
Rex牙醫
他的粉丝(7.2万)
Rakiki_
薇冷Violet
用户7504442642
o18268
查看更多
a
相册
查看更多
a
赞
刘群MT-to-Death
如果AI已经解决了科学家目前正在研究的问题,对科学家来说只会感到高兴,因为自己可以去...
查看更多
a
c
帮上头条
投诉
+
关注
52nlp
5月9日 18:15
来自
微博网页版
//
@陈阿荣TD
:这个效果和成本的综合优化是硬件+算法+工程的联合定制,能做到三点联合,其实是很难的
@AINLP
O
DeepSeek-V2技术解读
DeepSeek-V2技术解读
DeepSeek又带来了新的MoE模型DeepSeek-V2,总参数量2360亿,激活参数210亿,虽然离GPT...
16
评论
ñ
3
5月9日 12:13
来自
微博网页版
û
收藏
3
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:20
来自
微博网页版
转发微博
@AINLP
O
LLM4CS:一种利用LLM提升多轮会话检索的效果...
LLM4CS:一种利用LLM提升多轮会话检索的效果的方案
今天分享一篇人大的文章,大型语言模型知道您的会话上下文搜索意图(Large Language Models Kn...
10
1
ñ
7
5月9日 12:33
来自
微博网页版
û
收藏
5
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:20
来自
微博网页版
转发微博
@AINLP
O
Lite-LLM4Rec:大幅降低用LLM做推荐任务的耗时
Lite-LLM4Rec:大幅降低用LLM做推荐任务的耗时
论文名称: Rethinking Large Language Model Architectures for...
8
1
ñ
2
5月9日 12:33
来自
微博网页版
û
收藏
1
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:20
来自
微博网页版
转发微博
@AINLP
O
从第一性原理看大模型Agent技术
从第一性原理看大模型Agent技术
作者:凡心原文地址:https://zhuanlan.zhihu.com/p/662538702 在大模型技术引...
10
评论
ñ
8
5月9日 12:33
来自
微博网页版
û
收藏
转发
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:19
来自
微博网页版
转发微博
@AINLP
O
如何在本地部署运行Llama3
如何在本地部署运行Llama3
huggingface Llama3模型主页:https://huggingface.co/meta-llama/
12
1
ñ
3
5月9日 12:33
来自
微博网页版
û
收藏
转发
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:19
来自
微博网页版
转发微博
@AINLP
O
网页链接
10
2
ñ
5
5月9日 12:30
来自
微博网页版
û
收藏
1
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:19
来自
微博网页版
转发微博
@AINLP
O
生存还是毁灭?大模型时代的传统对话机器人将...
生存还是毁灭?大模型时代的传统对话机器人将何去何从
在ChatGPT大火之前,对话机器人(ChatBot)是为数不多的能够为NLP领域提供商业化的产品之一。
3
评论
ñ
赞
5月9日 12:30
来自
微博网页版
û
收藏
转发
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:19
来自
微博网页版
转发微博
@AINLP
O
RAG已死? RAG vs Long-Context LLM
RAG已死? RAG vs Long-Context LLM
作者:lucas大叔文章链接:https://zhuanlan.zhihu.com/p/693574568
7
2
ñ
3
5月9日 12:26
来自
微博网页版
û
收藏
转发
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:19
来自
微博网页版
转发微博
@AINLP
O
SIGIR 2024 | 共现关系还是细粒度偏好?ID和...
SIGIR 2024 | 共现关系还是细粒度偏好?ID和模态信息解耦的会话推荐
SIGIR 2024 | 共现关系还是细粒度偏好?ID和模态信息解耦的会话推荐 Disentangling ID...
3
评论
ñ
1
5月9日 12:21
来自
微博网页版
û
收藏
转发
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:19
来自
微博网页版
转发微博
@AINLP
O
解锁大模型长上下文能力
解锁大模型长上下文能力
Together的LLaMA-2-7B-32K(https://huggingface.co/datasets/...
4
评论
ñ
1
5月9日 12:17
来自
微博网页版
û
收藏
转发
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:18
来自
微博网页版
转发微博
@AINLP
O
Unsloth x Qwen2 微调实战,提速47.32%,节省...
Unsloth x Qwen2 微调实战,提速47.32%,节省39.13%显存,最少仅需8.43GB显存
遗憾的是,Unsloth目前并不支持Qwen2模型结构,该需求在Unsloth的issue中也被频繁提及,但官方...
9
1
ñ
4
5月9日 12:17
来自
微博网页版
û
收藏
1
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:18
来自
微博网页版
转发微博
@AINLP
O
图推荐系统综述:A Survey of Graph Neural N...
图推荐系统综述:A Survey of Graph Neural Networks for Recommender System
https://zhuanlan.zhihu.com/p/686458569 第一次整理综述,作为深入这个方向的...
7
评论
ñ
1
5月9日 12:13
来自
微博网页版
û
收藏
1
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:18
来自
微博网页版
转发微博
@AINLP
O
ORPO:当有监督微调遇上偏好对齐
ORPO:当有监督微调遇上偏好对齐
大语言模型通常会有预训练、有监督微调(supervised fine-tuning, SFT)、偏好对齐(pre...
4
评论
ñ
赞
5月9日 12:13
来自
微博网页版
û
收藏
转发
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:18
来自
微博网页版
转发微博
@AINLP
O
DeepSeek-V2技术解读
DeepSeek-V2技术解读
DeepSeek又带来了新的MoE模型DeepSeek-V2,总参数量2360亿,激活参数210亿,虽然离GPT...
16
评论
ñ
3
5月9日 12:13
来自
微博网页版
û
收藏
1
评论
ñ
赞
c
帮上头条
投诉
+
关注
52nlp
5月9日 16:18
来自
微博网页版
转发微博
@课程图谱
在数字化时代,编码已成为许多职业不可或缺的技能。意识到这一技能的重要性,加州大学圣克鲁斯分校在Coursera上提供了一个名为“面向大众的C和C++专项课程”。这个项目旨在将初学者转变为熟练的程序员,提供使用C和C++进行计算机编程基础知识的深入理解。
O
网页链接
概览
“面向大众的C和 ...
展开全文
c
11
1
ñ
12
5月9日 10:35
来自
微博网页版
û
收藏
4
评论
ñ
赞
正在加载中,请稍候...
最近
2024
5月
4月
3月
2月
1月
2023
12月
11月