微软研究院:2024年值得关注的三大人工智能趋势
发布人:张桂英 点击量:577 次
对生成式人工智能而言,2023年是具有重要意义的一年。在这一年里,数百万人通过使用 ChatGPT 和 Microsoft Copilot[1] 等工具,让人工智能从实验室走进了我们的现实生活。展望2024年,人工智能将会变得更加便利和实用、更加深入细微,并将融入到那些可以提升我们日常工作和协助解决全球性问题的技术中。以下是微软研究院认为在2024年值得关注的三个重要的人工智能发展趋势。本文编译自...
2024年国防领域的主要技术趋势
发布人:张桂英 点击量:1278 次
当下,全球国防工业正在快速进步发展和创新。更复杂的是,这些进步跨越了不同的技术,其中几个关键的技术趋势旨在改变2024年及以后的国防能力并加强国家安全行动。关键要点l 人工智能、3D 打印、超连接、网络安全、数字孪生技术、可持续发展努力和军事物联网是 2024 年将塑造该行业的主要国防技术趋势。l 这些技术专注于增强国防能力、克服供应链问题、实现可持续发展目标和提高流程效率。l 持续的数字化转型对...
新型芯片开启光速AI计算之门
发布人:张桂英 点击量:348 次
科技日报北京2月17日电 (记者张佳欣)美国宾夕法尼亚大学工程师开发了一种新型芯片,它使用光而不是电来执行训练人工智能(AI)所必需的复杂数学运算。该芯片有可能从根本上加快计算机的处理速度,同时还可降低能源消耗。相关研究发表在最新一期《自然·光子学》上。该芯片首次将本杰明·富兰克林奖章获得者纳德·恩赫塔在纳米尺度上操纵材料的开创性研究与硅光子(SiPh)平台结合起来。前者涉及利用光进行数学计算;后...
大模型最快推理芯片一夜易主:每秒500tokens干翻GPU!谷歌TPU人马打造
发布人:张桂英 点击量:672 次
一夜间,大模型生成已经没什么延迟了,生成速度已经接近每秒500 tokens。还有更直观的列表对比,速度最高能比以往这些云平台厂商快个18倍吧。(这里面还有个熟悉的身影:Lepton)网友表示:这速度简直就是飞机vs走路。值得一提的是,这并非哪家大公司进展——初创公司Groq,谷歌TPU团队原班人马,基于自研芯片推出推理加速方案。据他们介绍,其推理速度相较于英伟达GPU提高了10倍,成本却降低到十...
向完全自主性更进一步,清华、港大全新跨任务自我进化策略让智能体学会「以经验为鉴」
发布人:张桂英 点击量:592 次
「以史为鉴,可以知兴替。」 人类的进步史,可以看作是一个不断吸取过去经验、不断推进能力边界的自我演化过程。在这个过程中,我们吸取过去失败的教训以纠正错误,借鉴成功的经验以提升效率和效果。这种自我进化的过程在我们的生活中无所不在:从如何总结经验以更好地解决工作中的问题,到如何利用规律更精确地预测天气,我们都在不断地从过去的经验中学习和进化。成功从过去的经验中提取知识并将其应用于未来的挑战,这是人类进...
斯坦福机器人进化:从演示中转移技能,400美元解训练数据悖论
发布人:张桂英 点击量:749 次
斯坦福最新“技能转移”大法,让人类沦为给机器人提供训练数据的工具人。小哥拿上机械手做示范,机器人就能从收集到的数据中学会刷碗,并且能随机应变。打开水龙头、抓取盘子、用百洁布清洗一气呵成,外界干扰使坏也不怕。整套系统从硬件到代码完全开源,成本只需400美元,就可以在没有机器人的情况下收集训练机器人所需数据。更详细的3D打印、组装教程视频也即将发布。要知道,在这项工作之前要想大规模训练机器人be li...
国内首个!最火的MoE大模型APP来了,免费下载,人人可玩
发布人:张桂英 点击量:700 次
MoE(混合专家)模型最近有多火,不用过多介绍了吧?作为当下最顶尖、最前沿的大模型技术方向,MoE能在不增加推理成本的前提下,为大模型带来性能激增。比如,在MoE的加持之下,GPT-4带来的用户体验较之GPT-3.5有着革命性的飞升。但普通用户想要体验MoE的神奇魅力,必须每个月交20美元申请账号。那么……有没有免费的MoE让我用用呢?有!超级无门槛、人人免费玩的MoE大模型来了!昆仑万维刚刚发布...
Stable Diffusion 3震撼发布,采用Sora同源技术,文字终于不乱码了
发布人:张桂英 点击量:701 次
Stable Diffusion 3 和 Sora 一样采用了 diffusion transformer 架构。继 OpenAI 的 Sora 连续一周霸屏后,2月22日,生成式 AI 顶级技术公司 Stability AI 也放了一个大招 ——Stable Diffusion 3。该公司表示,这是他们最强大的文生图模型。与之前的版本相比,Stable Diffusion 3 生成的图在质量上实...
谷歌Gemini 1.5深夜爆炸上线,史诗级多模态硬刚GPT-5!最强MoE首破100万极限上下文纪录
发布人:张桂英 点击量:1335 次
2月16日,谷歌DeepMind首席科学家Jeff Dean,以及联创兼CEO的Demis Hassabis激动地宣布了最新一代多模态大模型——Gemini 1.5系列的诞生。其中,最高可支持10,000K token超长上下文的Gemini 1.5 Pro,也是谷歌最强的MoE大模型。不难想象,在百万级token上下文的加持下,我们可以更加轻易地与数十万字的超长文档、拥有数百个文件的数十万行代码...
谷歌掀桌子!开源Gemma:可商用,性能超过Llama 2!
发布人:张桂英 点击量:624 次
2月22日,谷歌在官网宣布,开源大语言模型Gemma。Gemma与谷歌最新发布的Gemini 使用了同一架构,有20亿、70亿两种参数,每种参数都有预训练和指令调优两个版本。根据谷歌公布的测试显示,在MMLU、BBH、GSM8K等主流测试平台中,其70亿模型在数学、推理、代码的能力超过Llama-2的70亿和130亿,成为最强小参数的类ChatGPT模型。目前,Gemma可以商用,并且普通笔记本、...
共116页 <<  < 10 11 12 13 14 15 16 17 18 19 >  >>