常识和逻辑将更重要

chatgpt会犯事实性的错误,因为它是语义模型,事实与否它目前无法区分。
小白会误以为chatgpt生成的答案是无比正确的,那将更可怕,至少以前用搜索引擎搜出来的东西是半信半疑的。
所以要有用常识和逻辑来再次检验输出结果的能力。不然将会被人工智能所误导。
chatgpt不会让小白会写复杂的程序,但却会让一个老手能更快的完成任务。
你的边界决定了你手中的chatgpt的边界。

发表评论

邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据