Nebula XAI

Experience the future artificial intelligence

Spectrum的2023年最佳AI故事

2023年很可能是人工智能史上最狂野,最戏剧性的时代之一。

人们仍在努力理解Openai的Chatgpt的力量,该公司于2022年底推出,当时该公司于2023年3月发布了其最新的大型语言模型GPT-4(LLMS本质上是面向消费者的应用程序背后的大脑)。

到2023年春天,重要和可信的人都吓坏了可能的负面后果 – 从某种程度上有些令人困扰,到存在的糟糕 – 不断提高AI。首先是一封公开信,要求停止开发高级模型,然后是关于存在风险的声明,第一次以美国行政命令和欧盟的形式进行了有关AI安全的国际峰会以及具有里程碑意义的法规。 AI行为。

据读者花了多少时间,这是Spectrum关于AI的2023年前10篇文章。考虑一下2023年的AI风味,这很可能是历史上的一年……除非2024年更疯狂。

10. AI艺术发电机可能被愚弄用于制作NSFW图像

借助文本到图像发生器,例如Dall-E 2和稳定的扩散,用户输入了A个提示,描述了他们想要生成的图像,并且该模型将完成其余的。尽管他们有保障措施,以防止用户产生暴力,色情和其他不可接受的图像,但AI研究人员和黑客都很高兴地弄清了如何避免这种保障措施。对于白帽子和黑色帽子,越狱是新的爱好。

9. Openai的月球:解决AI对齐问题

与Openai的Jan Leike一起,此Q& a探讨了AI对齐问题。这就是我们可能会建立超智能AI系统的问题,该系统的目标与人类的目标不符,可能导致我们物种的灭绝。这是一个重要的问题,Openai正在专门资源来寻找依据研究的方法(因为超级智能AI系统尚不存在)。

8. Nvidia成功的秘诀

NVIDIA的AI-ACLEARTER GPU H-100可以说是技术中最热门的硬件。该公司的首席科学家比尔·达利(Bill Dally)在一次会议上反映了将NVIDIA推向平流层的四种成分。 IEEE Spectrum Spectrum高级编辑Sam Moore写道:“ Moore的定律是NVIDIA魔术的一小部分,新数字的格式很大。”

7. Chatgpt的幻觉可以防止成功

一个使LLM陷入困境的问题是他们习惯做事 – 尚不明显吐口在最自信的语气中。当人们试图将其用于真正重要的事情(例如编写法律摘要)时,这种习惯是一个特殊的问题。 Openai认为这是一个可解决的问题,但是一些外部专家,例如Meta Ai的Yann Lecun,不同意。

6. 2023年对AI状态的十个基本见解,图

这是列表中的列表!每年,Spectrum编辑器都会拆除斯坦福大学以人工智能研究所发行的大规模AI指数,将报告提炼成少数图表,以表达最重要的趋势。在2023年,亮点包括培训大型模型的成本和能源需求,以及在招募博士学位和建筑模型时行业对学术界的主导地位。

5.令人毛骨悚然的新数字来世行业

这是Wendy H. Wong撰写的一本名为We,数据的出色书的摘录。摘录长期以来探讨了作为新数字来世行业的一部分弹出的服务:一些公司提议在您灭亡后代表您发送消息,其他公司则使您能够录制其他人以后可以通过询问来播放的故事问题。而且已经有一些例子,人们根据留下的数据来建立已故亲人的数字复制品。

4. AI启示录:计分卡

当Spectrum编辑们讨论了真正聪明的AI从业人员(几十年来一直在该领域工作的人)对两个重要问题的看法非常反对,这是多么令人惊讶。也就是说,今天的LLMS表明AI很快将实现超人的智能,并将为Homo Sapiens提供如此超智能的AI Systems咒语。为了帮助读者了解意见的范围,我们汇总了一个记分卡。

3. 200年历史的数学打开了AI的神秘黑匣子

当今AI大部分动力的神经网络是著名的黑匣子。研究人员会给他们培训数据并查看结果,但对之间发生的情况没有太多了解。一组从事流体动力学的研究人员决定使用傅立叶分析,这是一种数学技术,用于识别已经存在了大约200年的模式,用于研究经过预测湍流的训练的神经网。

2. Duolingo的AI如何学习您需要学习的内容

本文是Spectrum的Signature Deep Dives之一,这是由正在构建该技术的专家撰写的功能文章。在这种情况下,这是语言学习应用Duolingo背后的AI团队。他们解释了他们如何开发鸟脑,这是一种AI系统,它借助教育心理学和机器学习,向用户提供了恰到好处难以保持其参与度的课程。

1.就已经平静下来了GPT-4

Spectrum Readers的逆势性很差,因此非常喜欢Rodney Brooks,Rodney Brooks是一个自称为AI怀疑的人,他已经在该领域工作了数十年。布鲁克斯并没有将GPT-4作为迈向人工通用情报的一步,而是引起了LLM在从一项任务中概括到另一个任务的困难。他说:“大型语言模型擅长的是说答案听起来应该是什么,这与答案应该是什么不同。”

See also  释放人工智能的力量:探索数据破折号的未来