评论:《错觉:AI如何通过数据挖掘误导我们》(美)【加里·史密斯 著 钟欣奕 译】【文字版_PDF电子书_下载】

  • 老公鸟
    老公鸟2019-12-31 23:57:58

    原来只要量大,无意义的随机数中也可以很容易地发现相关性较高的关系-_-

  • DustAndRust
    DustAndRust2022-11-18 13:31:30浙江

    还可以,但这本书更像是在讲“有哪些扯淡的研究”,突然想到学术界对过度看重定量研究的一些批评。

  • 未命名
    未命名2020-03-31 19:41:30

    作者怕不是段子手附体。前半挺有意思的,后续有点疲软,观点用尽。看完我只是对书中提到的那位知识发现教授念念不忘,想看他俩撕逼。

  • ୧⍤⃝臭屁大王
    ୧⍤⃝臭屁大王2020-03-06 18:19:01

    可终于看完了...里面举的例子也太多了,来来去去无非就是那几条道理,但却用了一整本书来解释,作者用随机算法编造数据都编了好几章

  • 比远方更远
    比远方更远2019-12-03 21:41:28

    神化由“错觉”推动,错觉由“数据”误导,数据由“AI”挖掘,AI被“神化”赋能……在由从数据到相关性再到模型的思维定势主导下所形成的完整闭环,不断地被强化、复制、放大,最终成为一个个遮蔽自我的神话,愈行愈远……

  • J.
    J.2019-12-04 15:49:45

    关于人工智能累积的困惑得到了解答。人工智能对比人类智能目前最大的区别就是没有通用智能,不能在多种情景下灵活运用它已知的东西。了解过很多提高人工智能的方法都是在经验学习的基础上提高,但始终不具备思考的能力,对事物没有常识性的感知,没有对数据来源好坏的判断。如果不是质的突破,人工智能的过度热捧不定会是下一个泡沫。任何用人工智能去取代人类思考能力的工作都要特别谨慎,尤其是研究人员,经常看到日新月异的研究结果只是单一依赖于数据的相关性,有的还是一流的研究杂志。格雷厄姆曾经说过,股市就是投票机,不对统计模型的合理性加以思考,依赖用AI来判断,只会制造效率更高的投票机。

  • greatabel
    greatabel2020-03-14 16:29:49

    #数据挖掘、模型、机器学习算法会误导的根本原因:意义本身来自人自身,这是机器目前或者永远不能给的。当然作为工具它们可以做我们的🚴‍♀️,用处很大,作者说的金融工程师4种类型,非常实在。 #沃森没被爆出来玩不下去前一直被我当作一个鉴别杠杆:能理解IBM某种程度是欺诈的,迟早玩不下去的一般技术理解力还是在线的。 #比较不能苟同的是:作者认为计算机做的这些都不是真正的智能。做人还是要实在一点,不能每次计算机解决了什么问题,就把这个问题说成“不是真正的智能”,是的,也许不是AGI,但是人类中知识也有很大一部分完全是概率性、知识性的,并不能说机器发现的知识都是偶然。

  • sojeuhe
    sojeuhe2022-03-25 19:08:16

    有的例子比如开篇的阿达耽误希拉里的问题,我对真实性比较怀疑🤨不过计算机本质还是计算,只是算的快慢多少的差别而已,而决策这种事儿确实有很多不可控因素。

  • redyecc
    redyecc2022-06-17 00:55:53

    1、目前的人工智能其实并不“智能” 截止目前为止,计算机只是比人类计算更快、记忆力更好。但是,最大的问题,目前的人工智能在常识性、自动识别、逻辑推理能力方面,都还很弱。 计算机的算法,都是人工设计的,也因为如此,不管有意无意,这些算法会存在漏洞或考虑不周,而这些问题,在非正常情况下,会造成和预期不一样的结果。某些情况下,如自动驾驶时,这些结果可能导致严重的后果,如撞车。如自动翻译,由于缺少上下文的理解,有时会有啼笑皆非的翻译结果。 2、人类趋利的本性导致技术的错误使用 其一,得州神枪手谬误1:瞄准数百个目标,只报告那些击中的情况。 其二,得州神枪手谬误2:找到一个模式,然后为其编造解释。

  • Jades Flower
    Jades Flower2022-08-24 02:42:41荷兰

    原来是统计学相关读物哈~

  • 团长是文盲
    团长是文盲2023-07-29 11:46:18四川

    一般般

  • 清尘
    清尘2023-02-26 13:08:02浙江

    举例子么?大概就只是想说AI对人的影响力。

  • 希望
    希望2023-08-22 13:36:00浙江

    书的主题还是挺吸引人的,不过内容太水。果然还是不能迷信大数据或是AI,需要自己独立思考啊!

  • BW
  • 拓跋鸡换
    拓跋鸡换2020-05-18 11:18:26

    关于在数据中寻找模型和规律的方法的确需要谨慎,特别是对数据挖掘下的新理论的强行解释

  • Michael Tao
    Michael Tao2021-02-08 21:45:24

    感觉一般般

  • 拿破轮胎
    拿破轮胎2020-04-29 15:40:57

    过度的数据挖掘会导致出现任何想要的结论,只要数据量足够大就能挖掘出各种规律,过度拟合也应当避免。

  • 落葉知秋可烹茶
    落葉知秋可烹茶2021-01-10 10:59:53

    滥用及过分依赖大数据的案例分析集合。使用工具的人别被工具带着走。

  • 炭烤蜂窝煤
    炭烤蜂窝煤2020-04-03 01:59:23

    前三分之二太啰嗦了,大意是通过挖掘数据和模型来倒推解释和结论,会导致误判很多只是短暂相关的情况,即便和选用的数据吻合,也无法预测未来。 最后三分之一提到在招聘、犯罪学、军事等领域完全依赖人工智能会导致的歧视(黑匣子)、隐私侵犯、摆弄系统等问题,这部分的反思(尤其是歧视)还挺有意思的。

  • 水木葳蕤
    水木葳蕤2020-07-04 17:13:36

    感觉数据挖掘想挖掘一些人类无法发现的现象,但是又无法通过具体显示原因解释,所以就不断堕入谬论。全书从头到尾都在举不同的例子说明,计算机的算法无法理解现实的真正意义。有一点很奇怪的是,难道数据能模拟出市场的随机性就说明市场是不可预测的么?书里用的例子似乎好几年前的,当时没有特别完善的数据挖掘技术,理论和计算能力也还不足,但是不能否认今天的技术已经进步很多,虽然还并不能完全像人类一样。

评论来自豆瓣,评论内容仅为网友个人看法,并不表明本站同意其观点或证实其描述!