【物联网芯片】这个小巧、防篡改的ID标签几乎可以验证任何东西
麻省理工学院的工程师开发了一种标签,可以近乎完美地揭示物品是真是假。钥匙在标签背面的胶水里。
AI工具
- 阅读更多 关于 AI工具
- 登录 发表评论
【人工智能】用于智能电网建模的生成人工智能
麻省理工学院LIDS获得了阿巴拉契亚地区委员会的资助,这是一个多州合作项目的一部分,该项目旨在为农村地区使用的新型智能电网技术建模和测试。
【AI新闻】使用人工智能发现坚硬的微观结构
麻省理工学院CSAIL的创新人工智能系统融合了模拟和物理测试,打造出具有新发现的耐用性和灵活性的材料,用于各种工程用途。
【AI新闻】一种让人工智能聊天机器人全天聊天而不崩溃的新方法
研究人员为一个令人困惑的问题开发了一个简单而有效的解决方案,该问题可能会恶化大型语言模型(如ChatGPT)的性能。
【AI新闻】创业公司加速了光速计算的发展
由三位麻省理工学院校友创立的Lightmatter正在使用光子技术来重塑芯片的通信和计算方式。
我们将越来越小的晶体管塞进芯片的能力使今天的计算时代无处不在。但这种方法最终达到了极限,一些专家宣布摩尔定律和一个相关原理,即德纳德标度的终结。
这些事态发展来得正是时候。近年来,对计算能力的需求激增,这在很大程度上要归功于人工智能的兴起,而且没有放缓的迹象。
现在,由三位麻省理工学院校友创立的Lightmatter公司正在通过重新思考芯片的命脉来继续计算的显著进步。该公司不仅依靠电力,还使用光进行数据处理和传输。该公司的前两种产品,一种是专门从事人工智能操作的芯片,另一种是促进芯片之间数据传输的互连,使用光子和电子来推动更高效的操作。
Lightmatter联合创始人兼首席执行官Nicholas Harris博士说:“我们正在解决的两个问题是‘芯片是如何说话的?’和‘你是如何进行这些人工智能计算的?’”。“通过我们的前两款产品Envise和Passage,我们正在解决这两个问题。”
埃隆·马斯克OpenAI诉讼OpenAI 的疯狂索赔
埃隆·马斯克(Elon Musk)对OpenAI的诉讼基于一个可疑的说法,即该公司已经开发了“通用人工智能”,并将其移交给了微软。
埃隆·马斯克(Elon Musk)在本周开始时,在X上愤怒地发布了他为安装一台运行Windows的新笔记本电脑所做的努力。最后,他提起诉讼,指控OpenAI鲁莽地开发人类级人工智能,并将其移交给微软。
马斯克对OpenAI及其两名高管,首席执行官萨姆·奥特曼和总裁格雷格·布罗克曼提起诉讼,他们都曾与这位火箭和汽车企业家合作,于2015年创立了该公司。案件的很大一部分围绕着一个大胆而可疑的技术主张:OpenAI开发了所谓的通用人工智能(AGI),这个术语通常用来指代能够全面匹配或智胜人类的机器。
该案称,奥特曼和布罗克曼违反了与马斯克达成的OpenAI最初的“创始协议”,该公司承诺公开开发AGI“为了人类的利益。马斯克的诉讼指控,该公司的营利性部门,在他与OpenAI分道扬镳后于2019年成立,却在没有适当透明度的情况下创建了AGI,并将其授权给微软,微软已向该公司投资数十亿美元。该公司要求OpenAI被迫公开发布其技术,并禁止其使用该技术为其提供经济利益。”t微软、奥特曼或布罗克曼。
Gemma现在可以在谷歌云上使用
2024年2月22日,谷歌宣布了Gemma,这是一个轻量级、最先进的开放模型家族,采用了与我们创建Gemini模型相同的研究和技术。我们很高兴与大家分享,谷歌云客户今天可以开始在Vertex AI中定制和构建Gemma模型,并在谷歌Kubernetes引擎(GKE)上运行它们。Gemma的发布和我们更新的平台功能是我们致力于让人工智能对谷歌云上的开发者更加开放和可访问的下一阶段。
Gemma现在可以在谷歌云上使用
Gemma模型与我们有能力的Gemini模型共享技术和基础设施组件。与其他开放式机型相比,这使Gemma机型的尺寸能够达到同类最佳性能。我们发布了两种尺寸的砝码:Gemma 2B和Gemma 7B。每种尺寸都发布了经过预训练和指令调整的变体,以实现研究和开发。
Gemma支持谷歌云开发人员现在喜欢和使用的工具,包括Colab和Kaggle笔记本电脑,以及JAX、PyTorch、Keras 3.0和Hugging Face Transformers等框架。Gemma模型可以在笔记本电脑、工作站或谷歌云上运行。有了这些新的开放模型,开发人员现在可以使用Vertex AI进行构建和自定义,并在GKE上运行。为了最大限度地提高业界领先的性能,我们与NVIDIA合作,为NVIDIA GPU优化Gemma。
AI新闻
- 阅读更多 关于 AI新闻
- 登录 发表评论
【大语言模型】LLM提示简介
我们如何与LLM进行有效沟通?
除非你已经完全脱离了社交媒体和新闻中的喧嚣,否则你不太可能错过大型语言模型(LLM)带来的兴奋。