Chat习PT?中国的聊天机器人要遵循习近平思想

思想钢印要实现了。

中国的人工智能(AI)公司要想创造出能与OpenAI的ChatGPT匹敌的聊天机器人,面临着两大挑战。一个是克服美国对购买尖端AI芯片的出口管制。

另一个呢?是确保聊天机器人遵循习近平思想。

这是中国共产党领导人习近平提出的指导思想。本周一,中国政府部门公布了一款以习近平的“十四个坚持”基本方略训练的新聊天机器人,提醒AI公司应如何行事。该基本方略强调社会主义价值观和中共在中国领导一切的地位。

官方说法是,该聊天机器人具有较高的安全性,旨在用于信息技术研究。该聊天机器人由中国网络空间研究院开发,语料库来源于七大网信专业知识库。其中六个是有关技术的专业数据库。另一个是“习近平新时代中国特色社会主义思想知识库”。

中国和美国正在争夺AI领域的领导地位,这一技术领域有望提高经济生产力,同时改变人们的工作方式。但在AI的一个子领域,中国公司面临着劣势,因为中国政府不仅审查聊天机器人输出的内容,还审查它们能从哪些数据中学习。

(略)

在中国,AI开发者面临种种限制。德国墨卡托中国研究中心(Mercator Institute for China Studies)分析师Rebecca Arcesati表示,正如中国网信办屏蔽谷歌、Facebook和外国新闻来源一样,该机构也有一个预先批准的来源名单,AI聊天机器人可以根据这些来源进行训练。监管机构还会核实聊天机器人是否避免回答政治敏感话题的问询。

“这些大模型需要贯彻社会主义核心价值观”,Arcesati说。“生成式AI开发者需要接受这种政治一致性的挑战。”

《华尔街日报》(The Wall Street Journal)去年测试了一个中国聊天机器人,当时它一再拒绝回答有关中国政治的问题,并表示对话必须保持和平和建设性。

Source: Chat习PT?中国的聊天机器人要遵循习近平思想 – WSJ

谷歌时隔四年发布第三代AlphaFold 可预测所有生物分子结构

Sora出来的时候大家都觉得它已经掌握了World Model,我觉得有点高估。

但说AlphaFold几乎掌握了Molecular Biology Model,估计并不夸张。

171524568835494 840 560.

值得注意的是,AlphaFold 3使用了现在AI图片生成常用的扩散(Difussion)模型。AlphaFold 3的模型的核心仍然是上一代AlphaFold 2使用过的Evoformer深度学习结构,不过在输出过程中,AlphaFold 3使用了扩散模型来预测蛋白质等结构。通过扩散模型,AlphaFold 3的预测结果从模糊变清晰,最终输出精确的分子结构。

谷歌称,AlphaFold 3预测分子相互作用的准确性超过了所有现有系统,能预测所有生物分子的结构和相互作用。对于蛋白质与其他分子类型的相互作用,AlphaFold 3与现有的预测方法相比至少有50%的精度提升,对于一些重要的相互作用类别,AlphaFold 3的预测精度提高了一倍。

Source: GPT革命|谷歌时隔四年发布第三代AlphaFold 可预测所有生物分子结构_财新网_财新网

阿里云70亿参数版本开源

开源?遵守最新的生成式AI管理办法吗?符合社会主义价值观吗?😂

168497649167055 480 320

国内科技企业掀起“百模大战”的同时,开源大模型的数目逐渐增多。8月3日,阿里云宣布,将通义千问70亿参数的小型化版本对外开源,免费供其它企业商用。自此,全球围绕开源大模型的生态争夺进一步加剧。

“相比英文世界热闹的AI开源生态,中文社区缺少优秀的基座模型。通义千问的加入有望为开源社区提供更多选择,推动中国AI开源生态建设。”阿里云在声明中表示。

Source: GPT革命|阿里云70亿参数版本开源 模型开源成趋势_财新网_财新网

GPT-3 aces tests of reasoning by analogy

更可能是大语言模型训练时已经见过这些题目,很可惜论文并没有对此进行分析。

The UCLA team, Taylor Webb, Keith Holyoak, and Hongjing Lu, relied on a large collection of ways that past research has tested humans’ ability to reason via analogy. The classic form of this is the completion of a comparison—think “cold is to ice as hot is to ____”—where you have to select the best completion from a set of options.

Related tests involve figuring out the rules behind transformations of a series of letters. So, for example, if the series a b c d is transformed to a b c e, then the rule is to replace the last letter of the series with its alphabetical successor. The participant’s understanding of the rule is tested by asking them to use the rule to transform a different set of letters. Similar tests with numbers can involve complex rules, such as “only even numbers in order, but can be ascending or descending.”

On all of these tests, GPT-3 consistently outperformed undergrads, although the margins varied depending on the specific test involved. The researchers also found that the software could develop rules based on a series of numbers, and then apply them to a different domain, such as descriptions of temperatures like “warm” and “chilly.” They conclude that “these results suggest that GPT-3 has developed an abstract notion of successorship that can be flexibly generalized between different domains.”

Source: GPT-3 aces tests of reasoning by analogy | Ars Technica

谷歌工程师称其AI系统有人类感知力

我看过那段对话,确实很惊人,也许真能通过图灵测试。
其实这代人工智能工程师都是AGI降临派的使徒。

Im 562388

谷歌(Google)一名工程师认为该公司开发的人工智能聊天机器人已经有了感知力,谷歌暂停了他的职务,并告诉他,在公司否定他的说法后,他违反了公司的保密政策。

Alphabet Inc. (GOOG)旗下谷歌的软件工程师Blake Lemoine告诉该公司,他认为其对话应用语言模型(简称LaMDA)是一个人,具有权利,可能还有灵魂。LaMDA是一个内部系统,用于构建模仿语音的聊天机器人。

谷歌发言人Brian Gabriel说,包括伦理学家和技术专家在内的公司专家已经评估了Lemoine的说法,谷歌通知他,相关证据并不支持他的说法。这位发言人表示,Lemoine正在休行政假,但未予提供进一步的细节,称这是一个长期的私人性质的人事问题。《华盛顿邮报》(The Washington Post)早些时候报道了Lemoine的说法和他被谷歌停职的情况。

Gabriel 在一份电子邮件声明中说:“数以百计的研究人员和工程师与LaMDA进行了对话,就我们所知,没有其他人像Blake那样对LaMDA进行了广泛的认定或拟人化。”

Gabriel称,人工智能领域的一些人正在考虑人工智能具有感知力的长期可能性,但通过将没有感知力的对话工具拟人化来这样做是没有意义的。他补充说,像LaMDA这样的系统,其运行方式是模仿数以百万句的人类对话中的交流类型,从而能够就即便是幻想中的话题展开交流。

人工智能专家普遍表示,该技术仍未接近人类的自我认识和意识。但在语言和艺术等领域,人工智能工具日渐具备进行复杂互动的能力,对此技术伦理学家警告说,随着公司公开部署此类工具,可能会导致误用或误解。

Lemoine称,通过与LaMDA的互动,他得出结论认为它已经成为一个人,应该被赋予同意权,即同意在它身上进行的实验。

“在过去的六个月里,LaMDA在其沟通中表现出令人难以置信的一致性,即它想要什么,以及它认为它作为一个人的权利是什么,”Lemoine上周六在在线出版平台Medium上的一篇文章中写道。他写道:“继续让我感到困惑的是,它的要求如此简单,而且对谷歌来说毫无成本,谷歌却极其强烈地抵制给予它想要的东西。”

Lemoine在周日的简短采访中说,因违反公司的保密政策,他于6月6日被安排带薪行政休假,他希望自己能保住在谷歌的工作。他表示,他并不是想激怒公司,而是为他认为正确的事情站出来。

在另一篇Medium帖子中,他称自己因违反公司的保密政策,于6月6日被谷歌停职,并表示他可能很快被解雇。

Source: 谷歌工程师称其AI系统有人类感知力,被公司停职 – 华尔街日报

Workera 报告

Workera 报告

Workera,作为一个deeplearning.ai旗下的公司,提供了一份关于AI行业中不同岗位的技能和工具的报告,英文原版在此下载。对于想要进入AI领域的局外人了解这些岗位区别,规划职业发展有很大帮助。

AI新贵:梦想撞上现实

炼丹,是炼丹。

在数据依赖之外,由于缺少理论基础,调整模型参数是深度学习中最为“玄学”的部分。一名旷视员工将其比作厨师的手艺,“加盐少许究竟是多少?全凭感觉”。

美国卡耐基梅隆大学教授邢波曾向财新记者称,如今的AI工艺不过是“作坊”的程度,难以标准化输出,“就像陶器,师傅和学徒做出的品质不同,甚至师傅做两遍,品质也不同”。

Source: AI新贵:梦想撞上现实_财新周刊频道_财新网

赚钱机器:一位匿名的算法交易者访谈

一位内部人士解释了算法如何重塑金融

Logic Magazine

照片:Aditya Vyas/Unsplash

原文作者: Logic Magazine的编辑
翻译: 中国特色。NET

近年来,我们越来越多了解到算法在我们生活中的作用。算法有助于决定人们是否获得工作或贷款,他们阅读的新闻(无论真假),甚至是他们的监禁刑期。

但算法也在重塑金融世界,并且产生了极为深远的影响。在金融化资本主义时代,金融在全球财富和工作组织中发挥着重要作用 – 这意味着每个人都会感受到行业转型的影响。

我们与一位算法交易员坐下来了解算法如何重塑金融行业,以及此事的重要性。我们谈到了算法金融实际上是什么,谁是可能会出现在新的大数据淘金热中的赢家和输家,以及为什么我们可能会进入一个非理性的机器人繁荣时代。

让我们先谈谈你的背景。你是如何进入金融业的?

我一直对经济学感兴趣并且具有量化的背景。任何在我学习的专业上取得成功的人最终都会非常靠近量化。毕业后,当我试图找到一个收入较高的职业,同时也允许我学以致用时,我开始关注金融业。我最终在一家投资银行的交易大厅找到工作。

大多数大型银行至少有一个,通常是几个交易大厅。这是一个实际的楼层,大约相当于一个足球场的大小,充满了与寻求交易股票,债券或期货或融资的大型投资者做生意的交易员。银行通过收取佣金或“做市”来赚钱 – 在买卖双方之间进行中介,在等待双方配对的同时用自己的钱来承担一些风险。

当我想到一个交易大厅时,我想到一群人在电话里大喊大叫,类似于”华尔街之狼”-的样子。

现在人们不再对着电话大喊大叫了。交易大厅随着时间的推移已经变化了很多。它过去更多是关注全球市场的实时交易流。但现在则是越来越多的关于如何实现这种交易流,以及允许人们从该流程中赚钱的专利。

我喜欢它。交易大厅仍然事实上是全球市场的许多协议和交易发生的地方。这令人兴奋。如果你想用好你的智力,你会如鱼得水。你不只是坐在某个地方的办公桌前,或者试图通过一些随意的分析来说服巨型企业来支持你 – 这可能更像是一场推销游戏而不是一场智力锻炼。

不久,随着时间的推移,我调到金融行业的投资策略部门。我开始帮助大型资产所有者 – 养老基金和主权财富基金等实体 – 将资金分配给系统化的投资项目。我调去这里,因为这是大多数金融企业在2008年金融危机之后开始重点发展的地方,因为每个人都意识到旧的投资方式并没有真正按照他们的意愿去做。

投资组合依然暴露于相同的潜在风险。但技术现在使投资者能够更好地了解他们的风险,并更直接地控制他们的投资。转变的一部分是,当人类决策没有增加价值的时候就不用它。

Continue reading “赚钱机器:一位匿名的算法交易者访谈”