齐思头条2024/12/10「Google量子计算芯片Willow突破,OpenAI发布SORA视频生成工具,Elon Musk多星球意识愿景,AI驱动脑部扫描技术效率翻倍,OpenAI推出Sora

   日期:2024-12-27    作者:serch 移动:http://mip.riyuangf.com/mobile/quote/70185.html
## Twitter: **Google的量子计算突破** :Google推出了最先进的量子计算芯片Willow,显著减少了随着量子比特增加而产生的错误,解决了一个需要超级计算机超过10^25年才能完成的计算,详细信息见[Sundar Pichai的推文](https://news.miracleplus.com/share_link/50377)。这一突破解决了该领域长达30年的挑战,标志着量子计算能力的重大进展。 **OpenAI的SORA视频生成工具** :OpenAI推出了SORA,一个允许用户创建高达1080p和20秒长视频的工具,支持文本到视频和图像到视频的多种格式,并内置透明度和防滥用的保障措施。该工具作为Plus订阅的一部分提供,Pro订阅提供更高分辨率选项,详细信息见[Twitter公告](https://news.miracleplus.com/share_link/50380)。 **Elon Musk的多星球意识愿景** :Elon Musk强调实现多星球意识的重要性,设想人类在火星和其他星球上的存在对于长期生存至关重要,详细信息见他的[推文](https://news.miracleplus.com/share_link/50307)。这一愿景与Musk通过SpaceX和Tesla实现地球以外人类生活的更广泛目标一致。 **AI驱动的脑部扫描技术** :一项新研究表明,AI驱动的脑部扫描在检测中风和评估可逆性脑损伤方面的效率是传统方法的两倍,详细信息见[IterIntellectus的报道](https://news.miracleplus.com/share_link/50359)。这一进步突显了AI在医学诊断中的潜力,提供了比传统技术显著的改进。 **OpenAI的Sora Turbo发布** :OpenAI推出了Sora Turbo,其AI模型的更快版本,现在作为Plus和Pro用户的独立产品提供。此发布继二月的初步预览之后,更多信息可在[此处](https://news.miracleplus.com/share_link/50381)获取。 **NeurIPS 2024和LLM研究** :包括Xiangyue96在内的研究人员积极参与NeurIPS 2024,贡献了六篇共同撰写的论文,专注于增强LLM在不同模态和上下文中的推理能力,详细信息见[Xiangyue96的公告](https://news.miracleplus.com/share_link/50310)。这一活动标志着AI研究人员交流思想和探索新机会的重要聚会。 **FineWeb2的多语言数据更新** :FineWeb2引入了支持数千种语言的重大更新,利用数据驱动的方法提高在多样化语言数据集上的性能,详细信息见[gui_penedo的公告](https://news.miracleplus.com/share_link/50291)。此更新包括8TB的压缩文本数据,使FineWeb2成为多语言AI研究的领先资源。 **Spider 2.0文本到SQL挑战** :XLangNLP推出了Spider 2.0文本到SQL挑战,基于Yale Spider 1.0,旨在推进LLM时代SQL查询的复杂性,详细信息见他们的[公告](https://news.miracleplus.com/share_link/50352)。这一挑战旨在推动AI处理真实世界复杂云数据库的能力,涉及超过3000列和多种方言。 **Elon Musk的Optimus机器人进展** :Optimus是由Elon Musk开发的机器人,现在可以使用神经网络控制其电动肢体在不平坦的地形上导航,展示了现实世界AI系统的进步。Musk邀请个人加入Tesla进一步开发这些系统,详细信息见[推文](https://news.miracleplus.com/share_link/50368)。 **DeepMind的AI天气预测器** :DeepMind使用40年的历史数据训练了一种AI天气预测器,其性能在97%的时间里优于领先的天气预报提供商,详细信息见[New Scientist的报道](https://news.miracleplus.com/share_link/50304)。 **Llama 3.3版本在HuggingFace上可用** :Llama 3.3模型,包括GGUF的bnb 4-bit和原始16-bit版本,现在在HuggingFace上可用,支持微调70B版本。此更新承诺速度提高两倍,内存使用减少70%,详细信息见[UnslothAI的分享](https://news.miracleplus.com/share_link/50309)。 **Google AI的量子错误校正突破** :Google Quantum AI的研究人员在量子错误校正方面取得了重大进展,使量子计算机更接近实际应用,详细信息见[Quanta Magazine文章](https://news.miracleplus.com/share_link/50382)。这一发展涉及使用他们最新的超导处理器Willow,随着量子比特规模的增加,错误率呈指数级减少,更多信息见[Google AI的解释](https://news.miracleplus.com/share_link/50383)。 **AI天气预测进展与GenCast** :GenCast是一种新的AI天气模型,提供了预测未来15天天气状况的最先进准确性,详细信息见[Jeff Dean的分享](https://news.miracleplus.com/share_link/50320)。这一模型代表了AI在天气预报中的进步。 **Tesla和X AI团队的网络协议创新** :Tesla和X AI团队据报道为AI时代重新发明了网络协议,展示了AI基础设施的重大进展,详细信息见[Twitter帖子](https://news.miracleplus.com/share_link/50384),表明了AI网络的变革性方法。 **SORA,OpenAI的AI视频生成器发布** :OpenAI推出了SORA,一个AI视频生成器,供公众使用,早期评论强调了其生成100% AI创建视频的能力。该工具已测试一周,更多见[Twitter线程](https://news.miracleplus.com/share_link/50385)。 **Transformers库中的新模型** :Transformers库中引入了一种新模型,与传统LLM和VLM不同。该模型基于联合嵌入预测架构,旨在通过学习世界动态来模拟人类智能,详细信息见[文档](https://news.miracleplus.com/share_link/50386)。 **Molmo模型由Allen AI发布** :Allen AI发布了Molmo的完整配方,包括训练代码和数据,使用户能够重现他们的模型。更新的技术报告和资源可在[线程](https://news.miracleplus.com/share_link/50387)中找到。 **Sora AI视频模型评测** :备受期待的OpenAI Sora视频模型已被评测,突出了其生成高频细节和自定义库存镜头的卓越能力,尽管在物理现实主义方面仍有不足。模型性能预计将在广泛可用后与美国和中国的对手进行比较,详细信息见[Twitter帖子](https://news.miracleplus.com/share_link/50388)。 **无代理AI用于修复错误** :无代理方法在SWE-Bench Lite上的修复错误任务中表现优于,通过将代理动作限制在特定序列中,超越了通用代理模型。此方法详细信息见[Twitter帖子](https://news.miracleplus.com/share_link/50322),强调了工具界面设计和代理自我反思的挑战。 **欧洲AI法规影响** :对欧洲法规对AI创新的影响表示担忧,Sora模型的即将推出在欧洲和中国不可用。这一监管环境促使一些人考虑迁移到更有利的地区,详细信息见[Twitter帖子](https://news.miracleplus.com/share_link/50389)。 **InternVL2.5由OpenGVLab发布** :OpenGVLab发布了InternVL2.5,一系列从1B到78B参数的视觉语言模型,在MMMU基准测试中达到70%以上的成绩,可与GPT-4等领先的闭源模型媲美。模型可在[Hugging Face](https://news.miracleplus.com/share_link/50390)上获取,更多细节见随附的[论文](https://t.co/7HQAp1XcxG)。 **TRELLIS 3D生成模型由Microsoft发布** :Microsoft推出了TRELLIS,一种最先进的开源模型,用于从文本或图像提示生成高质量的3D资产,支持Radiance Fields和3D Gaussians等格式。此工具可在[Hugging Face](https://news.miracleplus.com/share_link/50391)上免费获取,提供了图像到3D技术的显著进步。 **Elon Musk的xAI图像生成系统** :Elon Musk宣布开发了xAI图像生成系统,内部完成时间约为六个月,展示了ChatGPT和Grok之间的比较,详细信息见[推文](https://news.miracleplus.com/share_link/50365)。该系统代号为Aurora,可供试用,更多信息见另一条[推文](https://news.miracleplus.com/share_link/50392)。 ## Discord: **LLMs生成代码的未来** :未来五年内,**LLMs** 可能生成大部分代码,强调理解**类型系统、并发性和编程范式** 的重要性。学习**编程语言理论(PLT)** 的人可能比学习**Go** 或**Java** 的人表现更好。[来源](https://news.miracleplus.com/share_link/50393)。 **AGI的实现要求** :实现**人工通用智能(AGI)** 需要足够大的可塑近似器、足够的I/O进行世界交互,以及一个自我调节的连续学习循环,需在专业化和泛化之间进行权衡。 **Perplexity的语音转文本性能** :**Perplexity** 的语音转文本比**OpenAI** 的当前产品更快更准确,尽管未详细说明具体技术。 **Exaone模型性能** :**Exaone模型** 接近**SOTA** ,在多个领域超越**Qwen 2.5** ,但具有非商业许可证和32k的上下文大小。[模型链接](https://huggingface.co/collections/LGAI-EXAONE/exaone-35-674d0e1bb3dcd2ab6f39dbb4)。 **多代理框架的怀疑** :对**多代理概念** 的实际效益表示怀疑,指出**Auto gen** 和**Crew AI** 在趋势中占据突出地位。 **Stable Diffusion模型推荐** :推荐**Flux** 用于16 GB VRAM的一般用途,尽管在绘画风格上有限,建议使用**Pixelwave** 进行绘画。 **GPU架构兼容性** :强调编译时使用正确的**sm_** 和**compute_** 版本,如**sm_90** 用于Hopper架构,以确保一致结果并避免旧SASS反汇编问题。 **NTK模型的怀疑** :对**神经切线核(NTK)** 作为真实世界DNN训练模型的怀疑,指出**SGD** 和**Adam** 不符合NTK预测,暗示NTK假设可能导致训练效果较差。 **跨注意力在3D场景重建中的应用** :**跨注意力** 在3D场景重建中映射表示的有效性,参考[论文](https://arxiv.org/abs/2411.08033)。 **SORA v2视频生成能力** :泄露的视频显示[SORA v2](https://news.miracleplus.com/share_link/50394)能够从文本、图像和其他视频生成1分钟视频,保持多个场景中的角色一致性。 **OpenAI的SORA公开发布** :OpenAI的AI视频生成器[SORA](https://news.miracleplus.com/share_link/50395)现已公开发布,拥有OpenAI Plus或Pro账户的用户可以生成视频,所有用户可以观看,预计将在当天结束前全面推出。 **Aurora图像生成模型发布** :XAI的[Aurora](https://news.miracleplus.com/share_link/50396)现已在X应用的模型选择器中可用,**Grok 2** 也已上线,**Grok 3** 即将推出。 **CUDA架构兼容性** :强调在编译时使用正确的**sm_** 和**compute_** 版本,如**sm_90** 用于Hopper架构,以确保一致结果并避免旧SASS反汇编问题。 **TopK执行和潜在维度缩放** :**TopK执行** 对模型中潜在维度缩放的影响,指出**TopK** 可以使维度稀疏,可能使缩放效果无效。 **Nous Research项目** :介绍**Nous Research** ,一个新的AI研究公司,其项目可在[网站](https://nousresearch.com/releases)和[GitHub](https://github.com/NousResearch)上找到。 **Aya-Expense模型的量化** :正在将**Aya-Expense模型** 量化为**FP8** 格式以优化有限的GPU资源,强调需要合适的校准数据集,最好是训练数据。[Cohere for AI研究Discord服务器](https://cohere.com/research)提供额外资源和支持。 **vLLM的兼容性和性能** :计划使用**vLLM** 进行部署,最初担心与**GGUF格式** 的兼容性,现确认GGUF与vLLM兼容并计划测试。 **OpenAI种子机制** :探索**OpenAI的种子机制** ,面临查询引擎发送不必要额外数据的挑战,寻求方法选择性发送和排除数据以有效利用种子机制。 **Llama3.2用于分类** :询问使用**Unsloth** 训练**Llama3.2** 进行分类,提供了相关脚本的[链接](https://github.com/timothelaborie/text_classification_scripts/blob/main/unsloth_classification.ipynb)。 **OpenRouter的API密钥使用** :建议为OpenRouter的程序化API密钥使用添加头,如`OPENROUTER-OPENAI-API-KEY`,计划发布此功能。[OpenRouter文档](https://openrouter.ai/docs/integrations)。 **语言服务器协议(LSP)与投影编辑器** :**LSP** 因其在文本编辑器中的模块化方法而流行,而投影编辑器如JetBrains MPS因其单片性质未被广泛采用。[JetBrains MPS](https://en.m.wikipedia.org/wiki/JetBrains_MPS), [LSP](https://en.m.wikipedia.org/wiki/Language_Server_Protocol)。 ## Reddit: **o1 非常平庸且不具备博士水平** [链接](https://news.miracleplus.com/share_link/50369): 这篇帖子批评了 AI 模型 o1 的能力,认为它在解决复杂的数学和物理问题方面并没有比其前身 4o 显著更好。 - **性能比较:** 一些用户认为 o1 和 o1-pro 能够比人类更快地解决复杂问题,但也有用户指出 o1 在某些任务上表现不佳,这表明它并非“平庸”,而是相较于之前的模型有所改进。 - **问题解决的局限性:** AI 无法解决特定的物理问题,即使有提示,这表明其智能受到训练的限制,而不仅仅是计算时间性能的限制。 - **提示和歧义:** o1 的有效性受到提示清晰度的影响;模糊的问题可能导致错误的答案,这突显了与 AI 进行精确沟通的重要性。 - **通用人工智能的期望:** 对于实现通用人工智能的接近程度存在怀疑,一些用户指出 o1 的改进并不像之前的模型更新那样显著,暗示通用人工智能并不迫在眉睫。

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号