01从《人工智能》到相辉堂:一场关于“机器能否思考”的追问
史蒂文·斯皮尔伯格的电影《人工智能》里,被人类养父母收养的大卫,越像孩子越像机器,越像机器越怀疑自己。徐英瑾把这段“我到底是机器人还是人”的挣扎,当成哲学对人工智能发问的起点。

02哲学不是答案,而是“爬山虎”:把不同学科缝在一起
徐英瑾把哲学比作“爬山虎”,用历史与辩证的眼光,把数学、物理、语言、伦理等学科一并缠住,让它们互相喂食养分。
“哲学的一大特点是思考大问题、澄清大问题。”
它既提供“X+”的黏合剂,也回到形而上学根部,接受“本部”指令。
03图灵测试:会说人话≠有智能
人工智能之父阿兰·图灵提出:只要机器能通过“行为主义标准”骗过人类评审,就算智能。
徐英瑾用土著、鸟类、外星人为例证明:“能说人话只是充分条件,不是必要条件。”
换句话说,ChatGPT即使能把“路遥知马力”接成“日久见人心”,也未必懂诗句背后的中国式情感。
04三大流派:乐观、悲观还是泡沫?
华裔科学家李飞飞曾把当下AI比作“前伽利略阶段”。徐英瑾点头:“不要高估它,但也别急着唱衰。”
乐观派看算法红利,悲观派看失控风险,泡沫派则提醒——“我们正处在一个被炒作放大、又被恐惧缩小的夹层。”
05ChatGPT拆解:数学模型+海量语料=“统计意义上的聪明”
ChatGPT全称“Chat Generative Pre-trained Transformer”,核心是“传统神经元网络+深度学习”的升级版。
它靠不断迭代的大规模数据集“喂”出来:同一句话,出现次数越多,被选中的概率就越高。
因此,“它知道‘日久见人心’的概率很高,却不懂‘日久’为何能‘见人心’。”
06海德格尔警告:把“常人意见”建制化,少数派将被算法过滤
当AI把“多数人认可”当成真理标尺,哥白尼的日心说就可能永远停留在错误答案之列。
徐英瑾提醒:时间差+语境锁死,让ChatGPT无法面对未来,过度依赖它,人就会在“自欺”里滑向集体无意识。
07破局之道:节俭算法+推理引擎+哲学思维
徐英瑾给出三条路径:
节俭算法:用更少的算力做更精准的推理;
推理引擎:让机器学会像人一样追问“为什么”;
哲学思维:在算法里嵌入“破”与“立”——敢于质疑常识,也敢于重建价值。
“技术再聪明,最终也要回到人的需要与未来指向。”
08结语:大数据驯服不了精神内核
徐英瑾最后强调:“识别人类精神内核,AI仍在路上。”
当哲学与代码握手,我们要警惕的不仅是算法的黑箱,更是人类自我解释的黑箱。
原创文章,作者:胡佳慧,如若转载,请注明出处:http://m.gaochengzhenxuan.com/news/14686.html