内容持续更新中
近日,Vectara 发布了一份名为 “幻觉排行榜” 的报告,比较了不同大型语言模型(LLM)在总结短文档时产生幻觉的表现。这份排行榜利用了 Vectara 的 Hughes 幻觉评估模型(HHEM-…
微软近日发布了 OmniParser V2.0,这是一个旨在将用户界面(UI)截图转换为结构化格式的全新解析工具。OmniParser 能够提高基于大型语言模型(LLM)的 UI 代理的性能,帮助用户…
近年来,随着大型语言模型(LLMs)的快速发展,自然语言处理领域经历了前所未有的变革。这些技术如今广泛应用于代码助手、搜索引擎和个人 AI 助手等场景,展现了强大的能力。然而,传统的 “下一个 tok…
Hugging Face 近期推出了一门名为 “Agent课程” 的在线学习课程,旨在帮助学习者深入理解智能Agent的基础知识及应用。课程内容丰富,共分为五个单元,从Agent的基本概念到最终的作业…
Meta AI的研究人员与学术伙伴共同开发了一种创新系统——MILS(多模态迭代LLM求解器),该系统能在无需经过专门训练的情况下,教大型语言模型处理图像、视频和音频。MILS依赖于语言模型的自然问题…
随着生成式人工智能(GenAI)的快速崛起,PromptLayer 作为一家位于纽约的初创公司,迅速进入了提示工程这一新兴领域。提示工程是指为 AI 聊天机器人提供精确指令,以获取有用的输出。Prom…
Realbotix 公司作为人形机器人和伴侣型人工智能的领先制造商,正在通过推出大型语言模型(LLM)集成和高级定制功能,进一步拓展其技术能力。 这些新功能计划于2025年2月推出,将使用户能够与包括…
在当前的技术环境下,人工智能(AI)引发了广泛的讨论。德蒙特福特大学的网络安全教授 Eerke Boiten 对此表示,现有的 AI 系统在管理和可靠性方面存在根本性缺陷,因此不应被用于重要应用。 B…
在学术研究领域,文献检索是一项复杂且重要的信息获取任务。研究人员需要能够处理复杂的、专业知识领域的检索能力,以满足细致的研究需求。然而,现有的学术搜索平台,如谷歌学术,往往难以应对这些复杂的研究查询。…
Sakana AI 是一家专注于自然启发算法的人工智能研究实验室,近日推出了一种名为 Transformer² (Transformer-squared) 的创新自适应语言模型。该模型无需昂贵的微调,…
在日前的达沃斯 “技术辩论” 会上,Meta 的首席 AI 科学家 Yann LeCun 对未来五年的人工智能发展做出了激动人心的预测。他认为,现有的人工智能系统将在未来3到5年内面临巨大的变革,将出…
在当今数字化的世界里,短文本的使用已成为在线交流的核心。然而,由于这些文本往往缺乏共同的词汇或背景,使得人工智能(AI)在分析时面临诸多挑战。对此,悉尼大学的一名英语文学研究生兼数据科学家贾斯汀・米勒…
DeepSeek近日正式发布并开源了其最新研发的大型语言模型R1,该模型在性能上表现出色,被认为可与OpenAI的o1正式版相媲美。这一举措不仅标志着国产AI技术的又一次重大突破,也为全球AI开发者带…
近日,一项由奥地利复杂科学研究所(CSH)主导的研究显示,尽管大型语言模型(LLMs)在多项任务中表现优异,但在应对高级历史问题时却暴露了短板。研究团队针对三大顶尖模型进行测试,包括 OpenAI 的…
最新研究显示,尽管人工智能在编程和内容创作等领域表现出色,但在处理复杂的历史问题时仍显不足。近期在NeurIPS会议上公布的一项研究表明,即使是最先进的大型语言模型(LLM)在历史知识测试中也难以取得…
近日,美国搜索引擎初创公司 Perplexity AI 向 TikTok 的母公司字节跳动提出了一项合并提案,计划将 Perplexity 与 TikTok 美国版合并成一个新实体。根据知情人士的透露…
谷歌最近正式推出了 Vertex AI RAG 引擎,这是一款旨在简化从知识库中检索相关信息并将其输入大型语言模型(LLM)的复杂流程的开发工具。作为 Vertex AI 平台的一部分,Vertex …
传统的大型语言模型(LLM)微调方法通常计算密集,且在处理多样化任务时显得静态。为了解决这些挑战,Sakana AI 推出了一种名为 Transformer² 的新型自适应框架。Transformer…
近日,OpenAI 与纽约时报之间的版权侵权诉讼在美国联邦法院开庭。此案引发广泛关注,因为它不仅涉及两大知名机构,还可能对整个数字媒体生态系统产生深远影响。法庭上,OpenAI 及其主要投资者微软提出…
近年来,人工智能(AI)的编程能力不断发展,但尚未达到完美。最近,BuzzFeed 的资深数据科学家 Max Woolf 通过实验发现,如果对大型语言模型(LLM)不断提供 “写更好代码” 的提示,A…
随着企业越来越多地应用大型语言模型(LLMs),如何提升模型的知识准确性并减少幻觉现象,成为了一项重要挑战。Meta AI 的研究人员在一篇新论文中提出了 “可扩展记忆层”,或许能够为这一问题提供解决…
近年来,训练大型语言模型(LLM)变得越来越昂贵且复杂,只有少数大型科技公司具备相应的计算资源。不过,谷歌最近推出了一种名为 SALT(小模型辅助大模型训练)的新方法,这一创新可能会彻底改变 AI 训…
随着用户体验的提升和留存率的增强,推荐系统在电商、流媒体和社交媒体等多个行业中愈发受到重视。这些系统需要分析用户、商品及其背景因素之间的复杂关系,以精准地推荐用户可能感兴趣的内容。 然而,现有的推荐系…
Meta 公司近日发布了一项突破性的研究成果,他们开发出一种新型的记忆层技术,可以显著提升大型语言模型(LLM)的事实准确性,并在参数规模上实现了前所未有的扩展。这项技术不仅挑战了传统神经网络的扩展方…
在当今科技迅速发展的背景下,大型语言模型(LLM)在多个行业中扮演着重要角色,帮助自动化任务和提升决策效率。然而,在芯片设计等专业领域,这些模型面临着独特的挑战。NVIDIA 最近推出的 ChipAl…
学术同行评审是科学进步的基石,但随着投稿数量的激增,这一系统正面临巨大压力。为了缓解这一问题,人们开始尝试利用大型语言模型(LLM)进行辅助审稿。 然而,一项最新研究揭示了LLM审稿中存在的严重风险,…
MRI 图像因其复杂性和数据量大,一直以来都是医学影像分析中的一大挑战。为了训练大型语言模型(LLM)进行 MRI 分析,开发者不得不将获取的图像切割为2D 图像,这样的处理虽然可行,但却限制了模型对…
近日,苹果公司在机器学习领域的最新研究显示,他们通过与 NVIDIA 的合作,成功将大型语言模型(LLM)的生成速度提高了近三倍。这一进展的关键在于苹果开源的技术 “Recurrent Drafter…