跟Claude学习美国选举制度

在第一次总统辩论后,拜登是否应寻求连任引起了极大争议,我向Claude询问了一下美国的选举制度,以下是对话记录。
(AI可能会出错,该信息仅作参考)

Q:为什么美国共和党和民主党可以提名候选人,这些候选人名字会出现在最终的选票上。其他党派可以提名吗?无党派的候选人呢?需要达到什么要求才可以让名字出现在选票上?

A:您问了一个很好的问题。美国的选举制度确实更有利于两大主要政党,但也允许其他政党和无党派候选人参与。让我详细解释一下:

1. 共和党和民主党的优势:这两个政党长期主导美国政治,拥有成熟的组织结构和大量资源。他们通过初选和党内caucus选出候选人,几乎可以自动进入大选ballot。

2. 其他政党:第三方政党(如自由党、绿党等)也可以提名候选人,但要满足各州的要求才能出现在选票上。这些要求因州而异,通常包括:

• 收集一定数量的选民签名

• 在前次选举中获得一定比例的选票

• 政党登记的支持者达到一定数量

1. 无党派候选人:独立候选人也可以参选,但同样需要满足各州的要求,通常比政党候选人更严格。主要包括:

• 收集大量选民签名(数量远高于小党)

• 支付保证金

• 提交详细的竞选文件

1. 进入选票的一般要求:

• 达到宪法规定的总统资格(35岁以上、出生时为美国公民、在美居住14年以上)

• 按时提交必要的竞选财务报告

• 遵守联邦选举委员会(FEC)的各项规定

1. 州与州之间的差异:每个州都有自己的选举法规,对候选人进入选票的要求不尽相同。有些州的要求较为宽松,有些则非常严格。

总的来说,虽然理论上任何符合条件的美国公民都可以竞选总统,但实际上,除两大党外的候选人要进入全国50个州的选票是极其困难的。这也是为什么美国总统选举长期以来主要是共和党和民主党候选人之间的竞争。

Q:美国总统选举是联邦选举,为什么各州的规则可以不一样?那是否有可能各州的候选人名单不一样?如果候选人不一样,怎么选举?

Continue reading “跟Claude学习美国选举制度”

Chat习PT?中国的聊天机器人要遵循习近平思想

思想钢印要实现了。

中国的人工智能(AI)公司要想创造出能与OpenAI的ChatGPT匹敌的聊天机器人,面临着两大挑战。一个是克服美国对购买尖端AI芯片的出口管制。

另一个呢?是确保聊天机器人遵循习近平思想。

这是中国共产党领导人习近平提出的指导思想。本周一,中国政府部门公布了一款以习近平的“十四个坚持”基本方略训练的新聊天机器人,提醒AI公司应如何行事。该基本方略强调社会主义价值观和中共在中国领导一切的地位。

官方说法是,该聊天机器人具有较高的安全性,旨在用于信息技术研究。该聊天机器人由中国网络空间研究院开发,语料库来源于七大网信专业知识库。其中六个是有关技术的专业数据库。另一个是“习近平新时代中国特色社会主义思想知识库”。

中国和美国正在争夺AI领域的领导地位,这一技术领域有望提高经济生产力,同时改变人们的工作方式。但在AI的一个子领域,中国公司面临着劣势,因为中国政府不仅审查聊天机器人输出的内容,还审查它们能从哪些数据中学习。

(略)

在中国,AI开发者面临种种限制。德国墨卡托中国研究中心(Mercator Institute for China Studies)分析师Rebecca Arcesati表示,正如中国网信办屏蔽谷歌、Facebook和外国新闻来源一样,该机构也有一个预先批准的来源名单,AI聊天机器人可以根据这些来源进行训练。监管机构还会核实聊天机器人是否避免回答政治敏感话题的问询。

“这些大模型需要贯彻社会主义核心价值观”,Arcesati说。“生成式AI开发者需要接受这种政治一致性的挑战。”

《华尔街日报》(The Wall Street Journal)去年测试了一个中国聊天机器人,当时它一再拒绝回答有关中国政治的问题,并表示对话必须保持和平和建设性。

Source: Chat习PT?中国的聊天机器人要遵循习近平思想 – WSJ

谷歌时隔四年发布第三代AlphaFold 可预测所有生物分子结构

Sora出来的时候大家都觉得它已经掌握了World Model,我觉得有点高估。

但说AlphaFold几乎掌握了Molecular Biology Model,估计并不夸张。

171524568835494 840 560.

值得注意的是,AlphaFold 3使用了现在AI图片生成常用的扩散(Difussion)模型。AlphaFold 3的模型的核心仍然是上一代AlphaFold 2使用过的Evoformer深度学习结构,不过在输出过程中,AlphaFold 3使用了扩散模型来预测蛋白质等结构。通过扩散模型,AlphaFold 3的预测结果从模糊变清晰,最终输出精确的分子结构。

谷歌称,AlphaFold 3预测分子相互作用的准确性超过了所有现有系统,能预测所有生物分子的结构和相互作用。对于蛋白质与其他分子类型的相互作用,AlphaFold 3与现有的预测方法相比至少有50%的精度提升,对于一些重要的相互作用类别,AlphaFold 3的预测精度提高了一倍。

Source: GPT革命|谷歌时隔四年发布第三代AlphaFold 可预测所有生物分子结构_财新网_财新网

阿里云70亿参数版本开源

开源?遵守最新的生成式AI管理办法吗?符合社会主义价值观吗?😂

168497649167055 480 320

国内科技企业掀起“百模大战”的同时,开源大模型的数目逐渐增多。8月3日,阿里云宣布,将通义千问70亿参数的小型化版本对外开源,免费供其它企业商用。自此,全球围绕开源大模型的生态争夺进一步加剧。

“相比英文世界热闹的AI开源生态,中文社区缺少优秀的基座模型。通义千问的加入有望为开源社区提供更多选择,推动中国AI开源生态建设。”阿里云在声明中表示。

Source: GPT革命|阿里云70亿参数版本开源 模型开源成趋势_财新网_财新网

GPT-3 aces tests of reasoning by analogy

更可能是大语言模型训练时已经见过这些题目,很可惜论文并没有对此进行分析。

The UCLA team, Taylor Webb, Keith Holyoak, and Hongjing Lu, relied on a large collection of ways that past research has tested humans’ ability to reason via analogy. The classic form of this is the completion of a comparison—think “cold is to ice as hot is to ____”—where you have to select the best completion from a set of options.

Related tests involve figuring out the rules behind transformations of a series of letters. So, for example, if the series a b c d is transformed to a b c e, then the rule is to replace the last letter of the series with its alphabetical successor. The participant’s understanding of the rule is tested by asking them to use the rule to transform a different set of letters. Similar tests with numbers can involve complex rules, such as “only even numbers in order, but can be ascending or descending.”

On all of these tests, GPT-3 consistently outperformed undergrads, although the margins varied depending on the specific test involved. The researchers also found that the software could develop rules based on a series of numbers, and then apply them to a different domain, such as descriptions of temperatures like “warm” and “chilly.” They conclude that “these results suggest that GPT-3 has developed an abstract notion of successorship that can be flexibly generalized between different domains.”

Source: GPT-3 aces tests of reasoning by analogy | Ars Technica

谷歌工程师称其AI系统有人类感知力

我看过那段对话,确实很惊人,也许真能通过图灵测试。
其实这代人工智能工程师都是AGI降临派的使徒。

Im 562388

谷歌(Google)一名工程师认为该公司开发的人工智能聊天机器人已经有了感知力,谷歌暂停了他的职务,并告诉他,在公司否定他的说法后,他违反了公司的保密政策。

Alphabet Inc. (GOOG)旗下谷歌的软件工程师Blake Lemoine告诉该公司,他认为其对话应用语言模型(简称LaMDA)是一个人,具有权利,可能还有灵魂。LaMDA是一个内部系统,用于构建模仿语音的聊天机器人。

谷歌发言人Brian Gabriel说,包括伦理学家和技术专家在内的公司专家已经评估了Lemoine的说法,谷歌通知他,相关证据并不支持他的说法。这位发言人表示,Lemoine正在休行政假,但未予提供进一步的细节,称这是一个长期的私人性质的人事问题。《华盛顿邮报》(The Washington Post)早些时候报道了Lemoine的说法和他被谷歌停职的情况。

Gabriel 在一份电子邮件声明中说:“数以百计的研究人员和工程师与LaMDA进行了对话,就我们所知,没有其他人像Blake那样对LaMDA进行了广泛的认定或拟人化。”

Gabriel称,人工智能领域的一些人正在考虑人工智能具有感知力的长期可能性,但通过将没有感知力的对话工具拟人化来这样做是没有意义的。他补充说,像LaMDA这样的系统,其运行方式是模仿数以百万句的人类对话中的交流类型,从而能够就即便是幻想中的话题展开交流。

人工智能专家普遍表示,该技术仍未接近人类的自我认识和意识。但在语言和艺术等领域,人工智能工具日渐具备进行复杂互动的能力,对此技术伦理学家警告说,随着公司公开部署此类工具,可能会导致误用或误解。

Lemoine称,通过与LaMDA的互动,他得出结论认为它已经成为一个人,应该被赋予同意权,即同意在它身上进行的实验。

“在过去的六个月里,LaMDA在其沟通中表现出令人难以置信的一致性,即它想要什么,以及它认为它作为一个人的权利是什么,”Lemoine上周六在在线出版平台Medium上的一篇文章中写道。他写道:“继续让我感到困惑的是,它的要求如此简单,而且对谷歌来说毫无成本,谷歌却极其强烈地抵制给予它想要的东西。”

Lemoine在周日的简短采访中说,因违反公司的保密政策,他于6月6日被安排带薪行政休假,他希望自己能保住在谷歌的工作。他表示,他并不是想激怒公司,而是为他认为正确的事情站出来。

在另一篇Medium帖子中,他称自己因违反公司的保密政策,于6月6日被谷歌停职,并表示他可能很快被解雇。

Source: 谷歌工程师称其AI系统有人类感知力,被公司停职 – 华尔街日报

Workera 报告

Workera 报告

Workera,作为一个deeplearning.ai旗下的公司,提供了一份关于AI行业中不同岗位的技能和工具的报告,英文原版在此下载。对于想要进入AI领域的局外人了解这些岗位区别,规划职业发展有很大帮助。

AI新贵:梦想撞上现实

炼丹,是炼丹。

在数据依赖之外,由于缺少理论基础,调整模型参数是深度学习中最为“玄学”的部分。一名旷视员工将其比作厨师的手艺,“加盐少许究竟是多少?全凭感觉”。

美国卡耐基梅隆大学教授邢波曾向财新记者称,如今的AI工艺不过是“作坊”的程度,难以标准化输出,“就像陶器,师傅和学徒做出的品质不同,甚至师傅做两遍,品质也不同”。

Source: AI新贵:梦想撞上现实_财新周刊频道_财新网