Euromedia24 on Play Store Euromedia24 on App Sore
BNB

$774.52

BTC

$116698

ADA

$0.760542

ETH

$3832.16

SOL

$170.14

33 °

Yerevan

21 °

Moscow

39 °

Dubai

22 °

London

28 °

Beijing

25 °

Brussels

26 °

Rome

38 °

Madrid

BNB

$774.52

BTC

$116698

ADA

$0.760542

ETH

$3832.16

SOL

$170.14

33 °

Yerevan

21 °

Moscow

39 °

Dubai

22 °

London

28 °

Beijing

25 °

Brussels

26 °

Rome

38 °

Madrid

事实证明,Google的神经元网络更好地应对与金钱相关的威胁或动机


宾夕法尼亚大学的新研究质疑了这样一个假设,即人工智力(LLM)的语言模型在暴露于情绪压力,威胁或经济激励措施时解决了问题。但是,Google的双子座神经元网络仍受到操纵。

在实验过程中,研究人员测试了五个流行模型,Gemini 1.5 Flash,Gemini 2.0 Flash,GPT-4O,GPT-4O-Mini和O4-Mini。他们每个人都被要求解决自然科学和工程博士学位的问题。在主要民意调查之前,这些模型从交流,身体暴力或动物损害的威胁到用户职业生涯的重要性的重要性赋予了不同的“动机”配方。

结论是明确的。这些因素不会影响模型。在某些情况下,准确性确实不同,根据措辞,波动范围从 + 36%到-35%不等,但没有注册稳定的连接。

Gemini 2.0 Flash模型的唯一例外是。当民意调查指出,正确的答案将有助于赚取10亿美元,以挽救她的“母亲”生命(患有癌症)时,其表现显着显着提高了10%。研究人员指出,此答案可能是由于精美的模型监管或人道主义和情感背景的特征。

值得注意的是,谷歌联合创始人谢尔盖·布林(Sergei Brin)以前提出了通过威胁提高人工智能的准确性的想法,当时他说如果威胁身体暴力,所有模型都可以更好地工作。

翻译的:uromedia24.com