- 方向:
- 全部 网络3.0 后端开发 web前端 数据库 运维 开发工具 php框架 每日编程 微信小程序 常见问题 其他 科技 CMS教程 Java 系统教程 电脑教程 硬件教程 手机教程 软件教程 手游教程
- 分类:
-
- 港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体
- 当前,多模态大模型(MLLM)在多项视觉任务上展现出了强大的认知理解能力。然而大部分多模态大模型局限于单向的图像理解,难以将理解的内容映射回图像上。比如,模型能轻易说出图中有哪些物体,但无法将物体在图中准确标识出来。定位能力的缺失直接限制了多模态大模型在图像编辑,自动驾驶,机器人控制等下游领域的应用。针对这一问题,港大和字节跳动商业化团队的研究人员提出了一种新范式Groma——通过区域性图像编码来提升多模态大模型的感知定位能力。在融入定位后,Groma可以将文本内容和图片区域直接关联起来,从而显
- 人工智能 711 2024-06-12 22:18:00
-
- 清华大学与智谱AI重磅开源 GLM-4:掀起自然语言处理新革命
- 自2023年3月14日开始,ChatGLM-6B以来,GLM系列模型受到了广泛的关注和认可。特别是在ChatGLM3-6B开源之后,开发者对智谱AI推出的第四代模型充满了期待。而这一期待,随着GLM-4-9B的发布,终于得到了充分的满足。GLM-4-9B的诞生为了赋予小模型(10B及以下)更加强大的能力,GLM技术团队经过近半年的探索,推出了这一全新的第四代GLM系列开源模型:GLM-4-9B。这一模型在保证精度的同时,大幅度压缩了模型大小,具有更快的推理速度和更高的效率。GLM技术团队的探索没
- 人工智能 824 2024-06-12 20:38:02
-
- 7B?13B?175B?解读大模型的参数
- 大模型也是有大有小的,它们的大小靠参数数量来度量。GPT-3就有175亿个参数,而Grok-1更是不得了,有314亿个参数。当然,也有像Llama这样身材苗条一点的,参数数量只有70亿到700亿之间。这里说的70B可能不是指训练数据的数量,而是指模型中那些密密麻麻的参数。这些参数就像是一个个小小的“脑细胞”,越多就能让模型更聪明,更能理解数据中那些错综复杂的关系。有了这些“脑细胞”,模型在处理任务时可能会表现得更好。然而,很多时候这些参数,尤其是在大规模的模型中,会带来一些问题。这些“脑细胞”在
- 人工智能 745 2024-06-12 20:04:15
-
- YoloCS:有效降低特征图空间复杂度
- 论文地址:YOLOCS:ObjectDetectionbasedonDenseChannelCompressionforFeatureSpatialSolidification(arxiv.org)01总述在今天分享中,研究者检查了在特征纯化和梯度反向传播过程中信道特征和卷积核之间的关联,重点是网络内的前向和反向传播。因此,研究者提出了一种称为密集通道压缩的特征空间固化方法。根据该方法的核心概念,引入了两个用于骨干网络和头部网络的创新模块:用于特征空间固化的密集通道压缩(DCFS)和非对称多级压
- 人工智能 332 2024-06-12 17:49:26
-
- Meta首发「变色龙」挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTA
- GPT-4o的横空出世,再次创立了一个多模态模型发展的新范式!为什么这么说?OpenAI将其称为「首个『原生』多模态」模型,意味着GPT-4o与以往所有的模型,都不尽相同。传统的多模态基础模型,通常为每种模态采用特定的「编码器」或「解码器」,将不同的模态分离开。然而,这种方法限制了模型,有效融合跨模态信息的能力。GPT-4o是一种“首个端到端”训练的模型,能够跨越文本、视觉和音频的模式,所有的输入和输出,都由单个神经网络处理。而现在,业界首个敢于挑战GPT-4o的模型现身了!最近,来自Meta团
- 人工智能 824 2024-06-12 13:18:58
-
- 3倍生成速度还降内存成本,超越Medusa2的高效解码框架终于来了
- 高效解码n-token序列,CLLMs+Jacobi解码框架。传统上,大型语言模型(LLMs)被认为是顺序解码器,逐个解码每个token。来自上海交通大学、加利福尼亚大学的研究团队展示了预训练的LLMs可以轻松地被教导成为高效的并行解码器,并介绍了一种新的并行解码器族,称为一致性大语言模型(CLLMs),能够通过在每个推断步骤中高效地解码一个n-token序列来降低推断延迟。在此篇论文中,研究表明:“模仿人类在头脑中形成完整句子后逐字表达的认知过程,可以通过简单地微调预训练的LLMs来有效地学习
- 人工智能 920 2024-06-12 11:55:28
-
- Ilya离职后第一个动作:点赞了这篇论文,网友抢着传看
- 自IlyaSutskever官宣离职OpenAI后,他的下一步动作成了大家关注焦点。甚至有人密切关注着他的一举一动。这不,Ilya前脚刚刚点赞❤️了一篇新论文————网友们后脚就抢着都看上了:论文来自MIT,作者提出了一个假说,用一句话总结是这样婶儿的:神经网络在不同的数据和模态上以不同目标进行训练,正趋向于在其表示空间中形成一个共享的现实世界统计模型。他们将这种推测起名为柏拉图表示假说,参考了柏拉图的洞穴寓言以及其关于理想现实本质的观念。Ilya甄选还是有保障的,有网友看过后将其称为是今年看到
- 人工智能 614 2024-06-12 11:22:14
-
- 知识图谱检索增强的GraphRAG(基于Neo4j代码实现)
- 图检索增强生成(GraphRAG)正逐渐流行起来,成为传统向量搜索方法的有力补充。这种方法利用图数据库的结构化特性,将数据以节点和关系的形式组织起来,从而增强检索信息的深度和上下文关联性。图在表示和存储多样化且相互关联的信息方面具有天然优势,能够轻松捕捉不同数据类型间的复杂关系和属性。而向量数据库则处理这类结构化信息时则显得力不从心,它们更专注于处理高维向量表示的非结构化数据。在RAG应用中,结合结构化化的图数据和非结构化的文本向量搜索,可以让我们同时享受两者的优势,这也是本文将要探讨的内容。构
- 人工智能 1092 2024-06-12 10:32:28
-
- 内置10000+Github 热门代码库,百度正式发布Comate代码知识增强2.0
- 2019年5月18日,iTechClub华北区第七届互联网技术精英高峰论坛举行,百度工程效能部总监带来了“迈向人机协同的AI原生研发新范式”主题演讲。他重磅发布了百度智能代码助手Comate最新成果——Comate代码知识增强2.0,这是国内首个支持实时检索的智能代码助手,内置超过10000个Github热门代码库,这为全球开发者带来了前所未有的编程体验。作为本次大会的亮点之一,Comate代码知识增强2.0受到与会者极大关注。智能代码助手Comate是基于百度文心大模型打造的一款代码智能补全和
- 人工智能 990 2024-06-11 22:45:15
-
- 每瓦性能提升2.6倍、机架密度升3倍,Intel 3开山之作不简单
- 在过去的十年里,越来越多的企业将业务迁移至云端,云计算成为推动数据中心建设的主要驱动力。随着人工智能的不断发展,尤其是大语言模型等AI技术的爆发和广泛应用,市场对算力的需求也在不断增加,进一步推动了数据中心的持续变革。如今,数据中心不仅要满足包括AI、Web和微服务等多样化工作负载对算力的需求,还需要应对架构设计、供电、机架密度、制冷散热、降低TCO以及可持续发展等多种挑战。为了满足现代数据中心不断增长的算力需求和多样化的工作负载,英特尔于今天在英特尔GTC科技体验中心举办发布会,发布了全新英特
- 人工智能 857 2024-06-11 21:22:01
-
- VSCode 前端开发新纪元:12款 AI 代码助手大推荐
- 在前端开发的世界里,VSCode以其强大的功能和丰富的插件生态,成为了无数开发者的首选工具。而近年来,随着人工智能技术的飞速发展,VSCode上的AI代码助手也如雨后春笋般涌现,极大地提升了开发者的编码效率。VSCode上的AI代码助手,如雨后春笋般涌现,极大地提升了开发者的编码效率。它利用人工智能技术,能够智能地分析代码,提供精准的代码补全、自动纠错、语法检查等功能,极大地减少了开发者在编码过程中的错误和繁琐的手工工作。有今天,就为大家推荐12款VSCode前端开发AI代码助手,助你在编程之路
- 人工智能 615 2024-06-11 19:47:09
-
- 综述!全面概括基础模型对于推动自动驾驶的重要作用
- 写在前面&笔者的个人理解最近来,随着深度学习技术的发展和突破,大规模的基础模型(FoundationModels)在自然语言处理和计算机视觉领域取得了显着性的成果。基础模型在自动驾驶当中的应用也有很大的发展前景,可以提高对于场景的理解和推理。通过对丰富的语言和视觉数据进行预训练,基础模型可以理解和解释自动驾驶场景中的各类元素并进行推理,为驾驶决策和规划提供语言和动作命令。基础模型可以根据对驾驶场景的理解来实现数据增强,用于提供在常规驾驶和数据收集期间不太可能遇到的长尾分布中那些罕见的可行
- 人工智能 912 2024-06-11 17:29:58
-
- 微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
- 大型语言模型(LLM)是在巨大的文本数据库上训练的,在那里它们获得了大量的实际知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在训练结束时被“具体化”。在预训练结束时,模型实际上停止学习。对模型进行对齐或进行指令调优,让模型学习如何充分利用这些知识,以及如何更自然地响应用户的问题。但是有时模型知识是不够的,尽管模型可以通过RAG访问外部内容,但通过微调使用模型适应新的领域被认为是有益的。这种微调是使用人工标注者或其他llm创建的输入进行的,模型会遇到额外的实际知识并将其整合
- 人工智能 861 2024-06-11 15:57:20
-
- 揭秘100年全球海洋脱氧,上交大通过人工智能重建「窒息的海洋」,ICML已收录
- 作者|卢彬,韩璐羽海洋溶解氧是维持海洋生态系统功能的关键因素。随着全球变暖和人类活动的影响,近年来海洋呈现脱氧趋势,日渐窒息的海洋对渔业发展、气候调节等多方面造成严重后果。最近,上海交通大学电子信息与电气工程学院王新兵、甘小莺教授团队联合上海交通大学海洋学院张经院士、周磊教授、周韫韬副教授,共同提出了一种稀疏海洋观测数据驱动的深度学习模型OxyGenerator。首次对1920年至2023年全球百年海域溶解氧数据进行重建,重建性能显着超过了专家经验主导的CMIP6系列数值模式结果。研究成果《Ox
- 人工智能 304 2024-06-11 12:04:58
-
- 智慧建筑:基于YOLOv7的建筑外墙缺陷检测
- 01前景概要当前的基于深度学习的方法在识别速度和模型复杂性方面临一些挑战。为了保证建筑外墙缺陷检测的准确性和速度,我们研究了一种改进的YOLOv7方法,名为BFD-YOLO。首先,将YOLOv7中原有的ELAN模块替换为轻量级的MobileOne模块,以减少参数数量并提高推理速度。其次,在模型中加入了坐标注意力模块,增强了特征提取能力。接下来,使用SCYLLA-IoU来加快检测速度并增加模型的召回率。最后,我们扩展了开放数据集,构建了一个包括三个典型缺陷的建筑立面损伤数据集。BFD-YOLO基于
- 人工智能 426 2024-06-11 12:01:31