当前位置: 主页 > 人工智能

人工智能图像识别原理-序列号识别 图像

发布时间:2023-02-13 22:13   浏览次数:次   作者:佚名

序列号识别 图像_图像颜色识别_人工智能图像识别原理

编译/木管乐器

据报道,十多年前三位人工智能研究人员取得的突破永远改变了人工智能领域。 他们创建了一个名为“AlexNet”的卷积神经网络系统,并使用了 120 万张网络图像来训练该系统。 最终,该系统成功识别出集装箱船和美洲豹等各种物体,准确率远高于以往的图像识别系统。

三位开发人员是 Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton。 他们凭借这项发明赢得了 2012 年 ImageNet 图像识别比赛。 AlexNet的成功开发让科技界认识到了机器学习的潜力,从而带来了一场人工智能革命。

很大程度上,这场人工智能革命是一场常人不注意的悄无声息的革命。 基于机器学习的人工智能在未来接管所有人类工作的前景在不久前对我们大多数人来说还很陌生。 机器学习是一种涉及计算机从大量数据中学习的底层技术,已被广泛应用于许多过去只有人类才能完成的任务,例如信用卡欺诈检测和在线上下文广告。

但最近,人工智能领域又取得了影响整个人类社会的突破,让这场革命不再像过去那样悄无声息——人们终于意识到自己的“饭碗”正受到人工智能的威胁。

ChatGPT引爆新一轮人工智能革命

序列号识别 图像_人工智能图像识别原理_图像颜色识别

这一突破的代表性例子之一是去年 11 月底发布的问答文本生成系统 ChatGPT。 这样的系统,以前只能在科幻小说中才能见到,而如今,却走进了大众的视野,成为了闪耀的存在。

ChatGPT由美国人工智能研究机构OpenAI创建,是目前最火热的所谓生成式人工智能系统中最新最引人注目的。 这种生成式人工智能可以根据人类发出的指令生成相应的内容。 AlexNet 的创始人之一 Ilya Satskyfer 是 OpenAI 的联合创始人。

据悉,如果你在 ChatGPT 中输入一个问题,它会生成一个简洁的文本,其中包含问题的答案和相关背景知识。 例如,当你问它谁赢得了 2020 年的美国总统大选时,它会告诉你乔·拜登赢得了选举,它还会告诉你拜登是什么时候开始就职的。

ChatGPT简单易用,输入问题后即时生成问题答案,就像一个正常人在与你交流。 正是因为这个特点,人工智能现在非常有希望进入人们的日常生活。 到目前为止,微软已经向 OpenAI 投资了数十亿美元,这足以说明该技术的乐观情绪。 ChatGPT 很可能在这场人工智能革命的下一阶段发挥核心作用。

尽管如此,ChatGPT 只是最近一系列备受瞩目的人工智能项目中的一个。 OpenAI 的另一个人工智能系统,即自动写作系统 GPT-3,在 2020 年首次展示时已经震惊了科技界。此后其他公司很快推出了自己的大型语言模型系统。 随后,人工智能技术在去年进一步扩展到图像生成领域。 代表产品有OpenAI的Dall-E2、Stability AI开源的Stable Diffusion以及Midjourney等系统。

随着这些技术成果的出现,人们开始蜂拥而至,为这些技术寻找各种新的应用场景。 预计新的应用会大量涌现,或许可以与史前寒武纪时期生命形式的大爆发相提并论。

如果计算机可以学习写字和画画,它们还有什么不能做的呢? 最近,人工智能已经开始在视频生成(谷歌)、数学问答(谷歌)、音乐创作(Stability AI)、代码生成等方面进行实验性应用。 药企也计划利用人工智能技术,有针对性地辅助设计新药。 生物技术公司已经使用人工智能来设计新的抗体,并大大减少了临床前测试所需的时间。

人工智能将彻底改变人类与计算机交互的方式,以前所未有的方式理解人类意图,并据此采取行动。 人工智能将成为一项基础技术,触及人类社会的方方面面。

随着人工智能应用的日益广泛,人们需要考虑这项技术可能给人类社会带来的负面影响。 例如,青少年可以利用 ChatGPT 代替他们做家庭作业。 更严重的是,人工智能可能被故意用来产生大量虚假信息。 此外,它可以使许多人类工作自动化,这可能会造成严重的失业问题。

人工智能可靠吗?

图像颜色识别_序列号识别 图像_人工智能图像识别原理

生成式人工智能的支持者认为,这些系统可以提高人类的生产力和创造力。 对于任何需要创造力的工作,生成式人工智能系统都可以帮助人们摆脱思维束缚,向工作人员提出新的想法,协助审查工作,甚至帮助产生大量的内容。 然而,尽管“生成式”人工智能易于使用且有可能颠覆大多数技术领域,但它对公司和个人等都构成了深刻的挑战。

人工智能给人类带来的最大挑战是可靠性。 人工智能系统可以生成看起来似是而非的结果,但不一定如此。 人工智能就是在海量数据的基础上,根据概率原理,做出最佳猜测,形成问题的答案。 但人工智能并不像人类思维那样真正理解它们产生的结果。

AI记不住与人类的对话,它们并不真正理解人类,它们对现实世界中的文字符号没有任何概念。 人工智能只是根据人类发出的指令,给出看似令人信服的回应。 它们是人类的智能、无脑模仿者,其结果输出是一种数字幻觉。

已经有迹象表明,该技术可能会产生看似合理但不可信的结果。 例如,去年年底,Facebook 母公司 Meta 展示了一个名为 Galactica 的生成系统,该系统使用学术论文作为训练数据集。 很快人们就发现,该系统可以根据需要生成看似合理但实际上完全错误的研究结果。 结果,几天后,Meta 不得不将系统撤回。

ChatGPT 的创建者也承认,系统有时会给出荒谬的答案,因为在训练人工智能时无法保证数据集的真实性/正确性。 OpenAI 表示,所谓的监督学习——在人类监督下进行训练而不是让它自学——对 ChatGPT 效果不佳,因为该系统往往比人类老师更擅长寻找“理想答案”。

一种可能的解决方案是在输出结果之前对其进行健全性检查。 谷歌在 2021 年发布的实验性 LaMDA 系统对每个人类指令给出了大约 20 个不同的反应,然后谷歌评估了每个反应的安全性和可靠性(接地性)。 不过,也有专家认为,任何依靠人类来验证人工智能输出的系统都可能引发更多问题。 例如,这可以教会 AI 生成具有欺骗性但看起来更可信的内容,再次愚弄人类。 真相有时难以捉摸,人类也不太善于发现,所以靠人类来评价人工智能的产出并不一定可靠。

也有专家认为,不必过多担心输出结果是否合理等哲学问题,只需关注人工智能技术的实用价值即可。 例如,互联网搜索引擎的输出有时既包含错误信息,也包含有用的结果,但人们自己会识别结果并找出对他们有用的信息。 人们需要学会批判性地使用这些人工智能工具才能从中受益。 当然人工智能图像识别原理,孩子们不能利用这些系统在学校作弊。

然而,实践表明,让人们为自己识别“生成式”人工智能的输出可能不是一个好主意,因为人们往往过于相信人工智能的输出——他们会不自觉地将人工智能视为人工智能. 真实的人看着它,忘记了这些系统并不真正理解人类的意思。

从这个角度来看,人工智能的可靠性可能确实是个问题。 该技术有可能被不良行为者故意利用为虚假信息工厂,从而可能使社交媒体平台充斥着虚假信息。 人工智能还可以用来模仿特定人的写作风格或说话声音。 简而言之,虚假内容的制作将变得比以往任何时候都更容易、更便宜且不受限制。

Stability AI总裁Emad Mostaque表示,可靠性问题是人工智能固有的固有问题。 人们可以以道德和合法的方式使用这项技术,也可以不道德和非法地使用它。 他声称,要防止这些先进的人工智能工具不可避免地被那些心怀恶意的人利用,唯一的防御措施就是尽可能广泛地传播这项技术人工智能图像识别原理,并让所有人都能使用它。

不过,在专业人士看来,人工智能技术的广泛传播是否能有效阻止这项技术带来的负面影响,目前还存在很大争议。 许多专家认为,应该限制对人工智能底层技术的访问。 微软相关人士表示,他们公司将与客户密切沟通,了解他们对技术的使用情况,并确保负责任地使用人工智能。

此外,微软也在尽最大努力防止利用其人工智能产品做坏事。 该公司为客户提供必要的工具来扫描输出以查找令人反感的内容,以及客户不想看到的特定内容。 该公司敏锐地意识到人工智能也可能行为不端:就在 2016 年,微软不得不在智能聊天机器人 Tay 推出产品仅一天后就匆匆撤下该产品,因为该机器人向用户输出了种族主义等激进言论。

在某种程度上,该技术本身具有遏制人工智能滥用的潜力。 例如,谷歌开发了一种语言系统,可以以 99% 的准确率检测语音是否是使用人工智能合成的。 谷歌所有正在开发的人工智能模型都禁止生成真人图像,这将起到防止深度造假的作用。

人类的工作会被大量取代吗?

图像颜色识别_序列号识别 图像_人工智能图像识别原理

随着生成式人工智能的出现,人们再次争论人工智能对人类工作的影响。 智能机器会大量取代人类工作吗? 或者,通过接管人类工作的程序部分,人工智能反而提高了人类的生产力并进一步增强了成就感?

涉及大量设计/写作元素的职业和工作将面临人工智能的直接影响。 去年夏末,Stability AI 推出了“Stable Diffusion”,这是一种 AI 文本到图像模型。 该模型可以根据人类提供的文本描述即时生成匹配图像。 人工智能工具在整个商业艺术和设计界掀起了一阵恐慌。

一些科技公司已经在尝试将“生成式”人工智能应用于广告业。 这方面的代表性公司是Scale AI,它正在使用广告图片来训练人工智能模型。 该机型可以为小型零售商、小型品牌制作专业的产品广告图片,为商家节省广告制作成本。

总之,人工智能有可能影响内容创作者的生计。 这项技术彻底改变了整个媒体行业。 世界主要内容提供商一致认为,他们需要元宇宙战略和“生成”媒体战略。

一些处于被 AI 取代边缘的创意人士认为,这个问题超出了他们的生计范围,而且更深层次。 一位音乐人看到ChatGPT写的一首与他风格相近的歌曲,震惊不已,以至于在网上感叹:音乐人在痛苦中创作音乐,这是建立在复杂的人类内心痛苦的基础上,但为了人工智能,他们没有人类的感觉,没有人类的痛苦。

技术乐观主义者对此有不同的看法。 他们认为人工智能不会取代人类的创造力,但可以增强人类的创造力。 例如,过去设计师只能一张一张地创作单张图片,但有了人工智能图像生成器,他可以更专注于整个视频或整个作品集的创作。

然而,现有的版权制度对创作者并不是很有利。 采用人工智能技术的公司声称,美国允许“合理使用”受版权保护的材料,因此他们可以免费使用所有可用数据来训练他们的系统。 但很多艺人和相关团体对此非常不满。 他们认为,人工智能公司使用他们的作品来训练人工智能是对这种版权特许权的滥用。 就在上周,Getty Images 和三位艺术家对 Stability AI 和其他人工智能公司采取了法律行动。 这是创意界首次针对人工智能训练数据问题采取行动。

代表一家人工智能公司应诉的律师表示,人工智能行业已经明白法律诉讼是不可避免的,并为此做好了准备。 这些诉讼是关于数据在人工智能中的地位,并将制定相关的基本规则——这对科技行业的影响将与智能手机早期的专利战一样大。

从根本上说,法院和立法者将扮演建立人工智能时代版权制度基本框架的角色。 如果他们认为人工智能技术已经颠覆了现有版权制度的基础,那么版权制度将面临变革。