作者,王艺编辑,海腰题图,Midjourney宣布创业近10个月后,原Facebook人工智能科学家,原阿里技术副总裁,知名开源深度学习框架Caffe的创立者,TensorFlow、Pytorch等框架的核心成员和共同领导者,曾被誉为AI框架领域最厉害的华人科学家--贾扬清,近期携两款颇令人惊艳的新产品,是什么。
∪0∪
白交发自凹非寺量子位| 公众号QbitAI提示词不会写没关系,AI来帮你搞定。贾扬清团队LeptonAI最新推出的AIGC提示工具——PromptLLM。只需短短几个字提示,就能收获一张细节感满满的绘图。比如鹦鹉吃胡萝卜。关键这AI还不是随便写写,甚至还有那么点常识在。比如「驼鹿亲鹅是什么。
bai jiao fa zi ao fei si liang zi wei | gong zhong hao Q b i t A I ti shi ci bu hui xie mei guan xi , A I lai bang ni gao ding 。 jia yang qing tuan dui L e p t o n A I zui xin tui chu de A I G C ti shi gong ju — — P r o m p t L L M 。 zhi xu duan duan ji ge zi ti shi , jiu neng shou huo yi zhang xi jie gan man man de hui tu 。 bi ru ying wu chi hu luo bu 。 guan jian zhe A I hai bu shi sui bian xie xie , shen zhi hai you na me dian chang shi zai 。 bi ru 「 tuo lu qin e shi shen me 。
DoNews11月16日消息,原阿里首席AI 科学家贾扬清吐槽国内某大模型(李开复的“零一万物”)用的其实是LLaMA 架构,仅在代码中更改了几个变量名引发网络热议。在零一万物回应并发布训练模型过程后,贾扬清最新发文谈了为什么开源领域“魔改”要不得。贾扬清指出,开源是一个相好了吧!
原阿里巴巴集团副总裁贾扬清在2021云栖大会上演讲(来源:阿里云官网)从阿里离职四个月后,开源深度学习框架Caffe创立者、原阿里巴巴集团副总裁贾扬清揭开了其新的发展方向。钛媒体App 7月14日消息,早前PyTorch负责人Soumith Chintala发布推文披露,贾扬清从阿里离职创建了一家等我继续说。
?△?
近日,原阿里首席AI科学家贾扬清吐槽国内某一新模型中用的其实是LLaMA架构,仅在代码中更改了几个变量名引发网络热议。在被指大模型回应并发布训练模型过程后,贾扬清最新发文谈了为什么开源领域“魔改”要不得。他还表示,魔改一时爽,社区火葬场,要真的做出成就来,就得真的有是什么。
?^?
凤凰网科技讯《AI前哨》11月16日,原阿里首席AI科学家贾扬清吐槽国内某一新模型中用的其实是LLaMA架构,仅在代码中更改了几个变量名引发网络热议。在被指大模型回应并发布训练模型过程后,贾扬清最新发文谈了为什么开源领域“魔改”要不得。贾扬清指出,开源是一个相互合作好了吧!
IT之家4 月10 日消息,原阿里首席AI 科学家贾扬清在X(推特)上分享了插件Elmo,该插件能在10 秒内总结Google Next 主题演讲,生成一句话概括、摘要、主要观点。该插件由贾扬清去年创办的AI 公司Lepton AI 打造。贾扬清表示,Elmo 采用了数据公司Databricks 推出的开源大模型D是什么。
原阿里技术副总裁贾扬清发文分析,因为Groq小的可怜的内存容量(230MB),在运行Llama-2 70b模型时,需要305张Groq卡才足够,而用H100则只需要8张卡。从目前的价格来看,这意味着在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。如果运行三年的话,Groq的硬件采购还有呢?
丰色发自凹非寺量子位| 公众号QbitAI“只需”10万美元,训练Llama-2级别的大模型。尺寸更小但性能不减的MoE模型来了:它叫JetMoE,来自MIT、普林斯顿等研究机构。性能妥妥超过同等规模的Llama-2。△贾扬清转发要知道,后者可是数十亿美元级别的投入成本。JetMoE发布即完全神经网络。
(*?↓˙*)
钛媒体App 5月21日消息,阿里巴巴原副总裁贾扬清在朋友圈发布观点表示,“站在整个AI业界的角度我想说,降价是个拍脑袋就可以做的简单策略,但是真正的To B商业成功更难。”他引述咨询公司CIO的话表示,今天企业在使用AI的时候,并不是成本驱动的,“今天不是说API不是贵才没有人是什么。
发表评论