不要陷入AI盲从

发布:2025-11-02 2K

AI First虽然很好,但是,没有专业判断力,就很容易变成AI盲从 我曾经以为,在AI时代,AI First(AI优先)原则,可以适用于大多数人,且大多数人也将因为这个习惯或思维而受益 但现在发现,这个观点是有问题的

AI First虽然很好,但是,没有专业判断力,就很容易变成AI盲从


我曾经以为,在AI时代,AI First(AI优先)原则,可以适用于大多数人,且大多数人也将因为这个习惯或思维而受益

但现在发现,这个观点是有问题的

实际上,是需要分情形的

粘贴的图片


首先,大部分人,可能并不能真正理解AI的能力边界在哪里

尤其是对于很多特定的专业工作场景,很容易搞混,哪些是AI知道的,哪些是AI不知道的


其次,是大部分人,对自己的能力边界,很难有正确的认知,在很多情况下,不知道自己不知道

所以即便产出的东西是垃圾,也不自知

参考下图:

粘贴的图片


我觉得更可怕的,是因为慢慢习惯了AI的协助之后,对AI产生的结果,会由开始的谨慎处理,再慢慢到后面的盲从,这种对AI的盲从背后,是因为慢慢丧失了专业判断力,甚至是对常识的判断能力,这种变化是很可怕的


其实不仅仅是在专业领域有这样的情况,在很多常识层面,面对AI对常识性问题的幻觉,普通人也难以察觉

看了一个新闻

两名游客,计划从海边步行前往一个小岛

出发前,他们问了ChatGPT一个问题:今天什么时候退潮?

ChatGPT的回答是:早上9点半

于是他们就出发了,但实际上ChatGPT这个回答是错误的,在这个过程中,他们并没有去进一步求证,也没有问酒店的工作人员或者酒店的安全手册

后来,当两个人步行到岛上,准备返回时,潮水开始疯狂上涨了,堤道已被淹没,且快速形成了很深的潮汐落差

事后,一名游客在采访中说:“我犯了个错误,用ChatGPT查低潮时间。它告诉我上午9点半。所以我们去了那边,结果回来的时候情况完全不一样了。这对我来说,是一次深刻的教训。”


前几天,我问ChatGPT静息心率与睡眠平均心率的关系,它很自信的输出了一个不太符合常识的回答,于是我多处查找资料验证,发现ChatGPT的回答错得离谱


这种错误,无论是对一些生活中的问题,还是工作中的问题,AI的输出总是会经常性的出现各种错误

这个时候,就非常考验我们的批判性思维与专业判断力,尤其是对于一些重要的问题,如果缺乏这两种能力,就会很容易变成“AI盲从”,这是一件很可怕的事情

而具备批判性思维与专业判断力,比想象的,要难得多


所以,我现在开始更多的建议,对于少部分关键工作,不要轻易的依赖AI,对AI保持批判,这个时候,应该优先通过权威可信的资料或专家及实践,让自己具备真正的专家级水平,这个时候,再去借助AI提效,才有可能驾驭好它

否则,我目前看到的案例,大都惨不忍睹,看似“提效”,其实都是在输出“垃圾”