Study at for

哥伦比亚大学教学中心在今年2月组织了一次校内师资关于的在线研讨会,来自哥大工程学院计算机系、数据科学学院、法学院、社会学系、公共卫生系等院系的教授,以及前身GPT-3论文的作者、学术道德主任和本科生写作项目主任等人员参与了此次活动。

人工智能时代AI Era

” 的惊人之处在于任何人都可以使用它,而不仅仅是那些具有技术专长的人。它可能会产生幻觉,生成不存在的信息。这些错误可能是产生巨大问题。”哥大计算机系教授Zhou Yu

“软件工程会编写胶水”代码以将两个复杂的编程系统连接在一起. 可能是生成此类胶水代码的绝佳工具”。哥大计算机系教授 Wu

科技发展不是为了投机和懒惰

tech ?

人工智能驱动的 自 2022 年 11 月推出以来就引起了轰动。 足够强大,但并非没有缺陷。

哥大法学院教授认为,“我们离理解AI技术突破所带来的各种可能性和风险还很远。虽然大语言模型在很多方面都是非常有价值的工具。但在涉及任何需要真正理解或事实准确性的事情时,它们也有内在的局限性。我们也很难事前预测或事后评估它们可能犯的错误。此外,现有的法律体系在监管人工智能方面准备不足,因为它们是为个人的线性和相对透明的行动和活动而设计的。因此,我们不能低估它们将带来的挑战,要非常谨慎地思考如何最好地将人工智能融入我们的世界和生活。”

哥大计算机系教授认为,“生成式AI可以成为思维辅助工具,它还不足以独自完成一项任务,但是一个很好的合作者。”

哥大机械工程系教授认为将让机器人具备抽象语义智能,可以将这些模型从互联网的纯粹虚拟世界中取出,并将它们很好地用于现实的任务中。

哥大社会学系教授Eyal则说他对引发的社会反应和用户痴迷更感兴趣。因为45年前,哲学家 写道:“我们的风险不是超级智能计算机的出现,而是亚智能人类的出现。人工智能的风险部分不是机器变得更像人类,而是人类变得更像机器,或者更准确地说,人类适应科技发展并在此过程中失去了一些使我们与众不同的东西。”

智能人工ai_智能人工的利与弊_人工智能chatgpt的好处

比如写作本身就是一个思维创新的过程,为何我们要让AI替代?

AI / 人

哥大公共卫生学院教授认为,“在短期内,我担心不了解人工智能如何工作会导致对这些工具的能力过度自信,甚至会出现误导性或危险性的交互”。

哥大数据科学学院教授认为,“只是AI新时代的开始。对于我们教育工作者来说,问题不是如何抵制或规避这个工具。问题是我们如何教导下一代使用这些工具的力量。我们如何利用它的好处,同时理解和减轻它的局限性?如果教育就是站在肩膀上。在我的课上,我要求学生使用人工智能工具完成作业。如来帮助生成工程概念。当然,学生必须像论文引用要求一样承认使用了AI工具。在课程方面,我正在更改内容,而没有学会使用AI工具的学生会发现很难跟上。”

哥大计算机系教授,“AI也可被滥用于传播虚假信息,这已经成为我们社会的一个问题,并且随着这些新的生成模型而变得更糟。他们生成文本、语音和视频的人类准确性令人恐惧。这些快速发展的另一个担忧是AGI的最终到来,这种人工智能足够聪明,可能会超过人类智能并消灭人类。然而,鉴于我对这些模型如何工作的了解,我知道我们离所谓的AGI还有很长的路要走。 的公开成功确保了我们不会在发生这种情况时措手不及,我们将以深思熟虑和有节制的方式进行开发。这使我对未来充满希望。”

哥大计算机系教授Itsik则指出AI语言模型的一些风险:

偏见 Bias:AI are on large of text data, which may and lead to . 但人类似乎在偏见方面做得更糟。

错误信息 :AI may false or , which could have if upon.不良应用 :AI may be used for , such as hate , fake news, or . 错误信息和滥用是当前已经出现的问题。

隐私担忧 :AI large of , and .隐私问题取决于谁可以访问 中的数据以及使用它做什么。但鉴于我们全天候携带强大的跟踪和传感设备即手机,我们的隐私保护已经很弱。

失业 Job Loss:AI may tasks, to job loss in that rely on those tasks.是的,许多工作将会被改变,许多工作将变得更加高效,许多人将失去工作,许多新的就业机会也将被创造。人们必须学会适应,我们都会因此变得更好。

2023年暑假哥大工程学院助研机会

6/1至8/31日

研究课题: in 3D User

要求:3D User ; with Unity and XR

研究课题:Multi-Scale Code (MSI)

要求: be with, but in, (or an ). The would also have some or and, as , some in , , and .