经历了半年的人工智能洗礼,或许很难找到比“中部反应”更严厉的词语,来形容今天科技行业中每个人的状态——紧张、刺激、压力。
“前面反应”,是指生物体在遭遇外部环境压力或威胁时,为了维持身体的惯性而产生的一系列反应。它是生物体为了适应环境、确保生存所产生的一种自然反应。这种反应可以是短暂的,也可以是长期的。
7月26日,OpenAI官方推特宣布,安卓版ChatGPT已在美国、印度、东南亚和巴西提供下载,并计划近期推广至更多国家。ChatGPT正在拓展渠道,获得更多用户和更强的使用粘性,生成式AI浪潮在持续推高。
7月初,上海的2023世界人工智能大会(WAIC)上,一位大型模型创业公司的技术人员正在展厅里穿梭,她计划为公司寻找一个入门级的国产芯片解决方案,用来做大型模型训练。
“我们有1000张A100,但完全不够。 ”她告诉虎嗅。
A100是英伟达的一款GPU高端产品,也是ChatGPT生长的硬件基础。一些公开数据显示,在训练GPT系列模型的过程中,OpenAI所使用的英伟达GPU数量约2.5万个。此时,要做大模型,要先评估能拿到多少张A100的显卡,几乎赚了这个行业的份额。
哪里有GPU?哪里有便宜算力?这只是2023WAIC大会上批量问题的缩影。
过去半年里所有被“中间”到的人,几乎都渴望能够在盛会中找到更多关于人工智能的答案。
2023WAIC现场
一家芯片展商的技术人员告诉虎嗅,在WAIC大会的几天里,他们的“大模型”展台前,来了一些好产品经理,他们希望在这里为公司的大模型业务寻找产品定义。
5月28日在中关村论坛上,中国科学技术信息研究所发布的《中国人工智能大模型地图研究报告》显示,截至5月底,中国10亿级参数规模以上的大模型发布了79个。这两个月里,又有万阿里云的通义相、华为云的盘古3.0、有道“子曰”等一系列AI大模型发布,据不完全统计目前国内的AI大模型已超过100个。
企业内部争先恐后发布AI大模型的动作,就是“中部反应”最好的体现。这种“反应”引发的担忧,正在给行业里几乎所有相关人员,从互联网派对的CEO到AI研究机构的研究员,从创投基金合伙人到AI公司的创始人,甚至是很多AI的法律从业者,以及相关数据、网络安全的监管层。
对于那些被边缘化的人来说,这可能只是短暂的狂欢,但在当今,又有多少人敢说自己置身于人工智能边缘。
人工智能正在开启一个新时代,一切都值得用大模型进行抢夺。越来越多的人开始思考技术扩散之后的结果。
资金涌入,飞轮已现
ChatGPT诞生的一个月内,出门问问创始人李志飞两次赴硅谷,逢人必谈大模型,在与虎嗅谈话时,李志飞直言这是他最后一次“All in”。
2012年,李志飞创立了大众舆论,这家以语音交互、软硬件结合为核心的人工智能公司经历了中国两次人工智能浪潮的波动。在一波人工智能最火热的那段时间,大众舆论的估值一度被推至独角兽级别,此后也经历了一段恐慌期,直到ChatGPT的出现,才让众多的人工智能行业撕开了这样的口子。
在一级市场上,“热钱正在涌入。”
这是过去半年中,谈及大模型时的行业认知。奇绩创始人论坛陆奇认为,AI大模型是一个“飞轮”,未来将是一个模型暗示在的时代,“这个飞轮已经启动”,而最大的推动力就是资本。
7月初,商业信息平台Crunchbase发布的数据显示,分类为AI的公司在2023年的融资额增长了250亿美元,占全球融资额的18%。虽然这一数字与2022年的290亿美元相比有所回升,但2023年全球各行业的总融资额较2022年同比下降了51%,由此可见AI领域的融资额在全球融资额中,几乎提高了一倍。 Crunchbase 在报告中这样写到:“如果没有 ChatGPT 引发的人工智能热潮,2023 年的融资额将会领先。”
其中,2023年AI行业最大一笔融资,就是微软在1月对OpenAI投资的100亿美元。
虎嗅根据公开数据统计,在美国的大模型公司创业中,Inflection AI或将成为人工智能领域融资量东南开放AI的第二大公司,其后分别是,Anthropic(15亿美元),Cohere(4.45亿美元)、Adept(4.15亿美元)、Runway(1.955亿美元)、Character.ai(1.5亿美元)和Stability AI(约1亿美元)。
在中国,2023年国内人工智能行业的公开投融资事件共有456起。而这项统计在2018年-2022年的5年间分别是731、526、353、631和648。
国内人工智能行业公众投融资事件
另一个引发飞轮的事件又是ChatGPT放出API接口。当OpenAI在3月首次开放ChatGPT的API接口时,AI行业内外对此几乎共识:行业要变天了。随着更多的应用接入大模型,AI上面正在长出更加繁茂的森林。
“做大模型和做应用本身就应该分开”,投资人的感知觉总是敏锐的,在源码资本执行董事陈润泽看来,AI是一个与半导体分工一样的逻辑,AI大模型的繁荣之后,很快就会看到应用的一波繁荣。
今年年初,陈润泽与同事一起前往硅谷时发现,硅谷声名显赫的创业孵化器Y Combinator(OpenAI创始人Sam Altman曾在这家孵化器担任总裁多年),有一半的项目都转型做生成式AI了。对于大模型的热情,不逊于如今大洋彼岸的中国。
,他也发现在美国是资本还是创业者,相比于大模型创业,更看好基于大模型所做的生态应用,毕竟在这个阶段,已经跑起来了类似OpenAI这样的公司,而与此同时,美国拥有最庞大的ToB应用生态土壤,更多的美国公司正在尝试因此基于大模型的生态做企业应用。
陈润泽的观察正在得到证实,大模型服务平台OpenCSG联合创始人陈冉告诉虎嗅,目前,美国湾区90%以上的公司已经把大模型能力发挥到了方方面面。至于中国,陈冉认为,年底之前很多的客户也会用起来。
今年3月左右,陈润泽和团队开始尝试在国内寻找基于大模型做应用的公司,但他发现这样的公司很少。大量资本进入了人工智能行业,但如果回顾这些资金的流向会发现,更多的钱仍然集中在头部几家公司中。
“现在,10个与生成式AI相关的项目,能投1个-2个也已经很成功了。”除了源码资本,虎嗅也与多位硬科技投资人交流,他们都表示,虽然项目看起来很稀疏,但真正靠谱的凤毛麟角。
应用端的这种态度,在很多人看来,已经是常态。
思必驰联合创始人俞凯认为,表面上热闹的相似,其实更多的是名义上的竞争,结果无非两种情况:“一种是为了融钱,纯导向资本;另一种是做全域通用大模型的公司,确实需要不会喊,不喊的话别人都知道。 ”
国内的一些统计数据也正在说明这个问题,根据第三方机构ene牛数据统计,截至2023年7月,国内有AIGC公司242家,1个月以来AIGC模拟融资事件有71家。而AI大模型模拟上的公司有67家,从ChatGPT发布至今,融资事件只有21家。
AIGC模拟和AI大模型模拟自ChatGPT发布后的融资事件|数据来源:ene牛数据
“现在国内AI市场上,好的标的太少了。”一位投资人如此告诉虎嗅——好项目太贵,便宜的又不靠谱。虽然目前国内发布的AI大模型数量过百,但在一众大模型公司中,获得巨额融资的并不多,甚至屈指可数。
很多AI投资到最后都变成了投资人——曾经的独角兽公司创始人、互联网大佬、拥有大模型相关创业经验的人等。
AI国内
今年的一众AI明星项目中,智谱AI、临心智能、深言科技和面壁智能,都是清华实验室孵化的公司。深言科技、面壁智能相似公司均成立于2022年,且有AI行业内知名学者的技术背书。
比这几家清华系AI公司成立时间均更短的是一些互联网行业大佬创立的AI公司,光年之外、百川智能和零一个万物成立于这波大模型热潮开始之后。
美团联合创始人王慧文在2023年年初成立的光年之外,一度融资5000万美元,已是彼时中国大模型行业为数不多的融资案例。与智谱AI、西湖心辰等以往大模型为基础的公司不同,光年之外是202 3年2月开始,从零开始做大模型,其涉案可想而知,6月29日,美团公告宣布收购光年之外的全部权益,总费用包括现金约2.33亿美元(合人民币16.7亿元)、债务承担约3.67亿元、及现金1元。
“起码要有自然语言处理背景的人,有一定大模型训练实操经验的人,以及数据处理、大规模算力资源等方面的专业人才。如果同时还要做应用,那应该要有对应领域的产品经理和运营人才。”陈润泽描述了这样一个大模型核心团队的标配。
大公司的AI赌注
过去半年中,老牌互联网大厂们的AI新闻漫天纷飞。对AI大模型的介入,早已成为热点,但像百度、阿里、华为这样的大公司,在AI上投下的赌注,显然不是跟风。
各厂在AI上的押注很早就开始了,对这些公司来说,AI并不是一个新鲜的话题。虎嗅根据企查查数据不完全统计,各大厂在2018年开始对人工智能相关的企业有不同程度的投资,从投资企业来看,大多是人工智能应用方面的企业,虽然涉及到部分AI芯片企业,但数量并不多,涉及大模型方面的企业几乎没有,而各大厂所投资的人工智能相关的企业大多与业务息息相关。
三家互联网大厂投资AI相关公司情况|数据来源:企查查
2017年阿里达摩院成立,研究对象涵盖机器智能、智联网、金融科技等多个产业领域,将人工智能的能力赋能到阿里的各个业务线中。2018年,百度提出了“All in AI”的战略。
不同的是,生成式AI的出现,似乎是一个转折点。对于拥有数据、算力和算法资源优势的科技产业来说,人工智能对他们来说已经不光是赋能场景,而是需要承担基础设施的角色,毕竟,生成式AI的出现,意味着针对人工智能产业的分工已经开始。
以百度、阿里、华为、腾讯,四家云供应商为代表的大厂,虽然都宣布了各自的AI策略,但明显各有积分。
在过去的半年时间里,工会纷纷发布自己的大模型产品。对于百度、阿里这样的大厂来说,他们入局大模型的时间并不算晚,基本都在2019年。
百度自2019年开始研发预训练模型,前期发布了知识增强文心(ERNIE)系列模型。阿里的通义千问大模型也是从2019年开始。除了百度和阿里的通用大模型,6月19日,腾讯云发布了大行业模型的研发进展。7月7日,华为云发布了盘古3.0行业大模型产品。
这些注意力也与各家的整体业务,云战略,以及在AI市场里的长期布局有所呼应。
百度的主线业务盈利能力在过去的5年中,出现了日益剧烈的波动。百度很早就出现了基于国内市场中搜索广告业务的问题,对此,百度选择了大力介入AI技术寻找新的契机。这些年,百度不仅邀请过吴恩达、奇陆等大佬出任高管,在自动驾驶上积极投入热情也远超其他大厂。如此关注AI的百度,势必会在这波大模式之争里再次投入。
阿里对通用大模型同样表达了极大的热情。一直以来,阿里云一直被寄予厚望,阿里希望走通技术路线创造集团的第二个曲线。在电商业务增长日趋激烈,市场增长的大环境下,依云而生的AI产业新机遇,无疑是阿里云在国内云市场上再发力的好机会。
相比百度和阿里,腾讯云在大模型方面优先了行业大模型,而华为云则公开表示只选择关注行业大模型。
对于腾讯来说,近年来主营业务增长稳健向好。在通用大模型的前路尚不明朗的阶段,腾讯对于AI大模型的更加相对稳定。马化腾在前期的财报电话会上谈及大模型时曾表示:“腾讯并不急于把半成品拿出来展示,关键还是要打造基础的扎算法、算力和数据切实可靠,而且更关键的场景落地。”
另一方面,从腾讯集团的角度看,腾讯目前有4所AI实验室,去年也发布了数千参数的混元大模型,腾讯云投身行业大模型方面的动作,更是一种“不把鸡蛋放在同一个篮子里”的投注策略。
对于华为来说,一直以来都是重投入研发,过去10年里华为在研发方面的总投入超过9000亿元。但由于手机业务遇到发展障碍,华为在很多技术研发上的整体策略也正在面临调整。
对于手机业务是华为C端技术最大的出口,如果手机业务不为通用大模型买单的话,那么华为研发通用大模型的动力就会明显下降。而华为,把赌注押在能快速落地变现的行业大模型,似乎是维护AI博弈承载的最完善的解决方案。正如华为云CEO张平安所说的“华为没有时间作诗”。
对于科技派对来说,赌注很大,只要能赌对,就能够先一步抢占基础设施的市场份额,从而在人工智能时代获得话语权。
有个锤子找钉子
对于商业公司来说,所有的决策仍然落到经济账上。
提升是一个不小的投入,越来越多有远见的公司创始人也认识到,这是未来必须做的事情,提升前期投入可能完全看不到回报。
AI大模型的研发需要投入不小的投入,但越来越多的企业创始人、投资人都认为,这是一个“必要投入”,升级眼下完全看不到回报。
由此,很多在上一波AI浪潮下诞生的人工智能公司,都在沉寂良久之后看到了新的曙光。
“3年前,大家都说GPT-3是通向通用人工智能的可能性。”李志飞在2020年的一段时间就开始带着一个班人马研究GPT-3,彼时众人讨论了一个发展的转折点,他们探索新的业务,但经过时间的研究之后,李志飞的大模型项目希望中止了,原因之一是当时的模型不够大,另外就是缺乏商业落地的场景。
,2022年底ChatGPT问世以后,李志飞仿佛被扎剂了一个强心针,因为他和所有者一样,看到了大模型的新机会。今年4月,大众舆论发布了自研的大模型产品——序列猴子。眼下,他们有准备新发布的大模型“序列猴子”冲刺港交所,大众舆论已在5月末重新了了招股书。
另一家老牌AI公司持续不断,去年7月,思必驰向科创板提交了IPO申请,于今年5月被上市审核委员会否决。
俞凯坦言,就连OpenAI,在GPT2阶段也用微软的V100训练了差不多一年的时间,算力和A100差好几个量级。思必驰在大模型前期积累阶段,也是用更为经济的卡做训练。当然,这需要时间作为代价。
相比于自研大模型,一些应用型公司有自己的选择。
一家在线教育公司的总裁张望(化名)告诉虎嗅,过去半年,他们在大模型应用场景的探索上不遗余力,但他们很快发现在落地过程中存在突发问题,例如成本与投入。这家公司的研发团队有50人-60人,开始做大模型研究以来,扩充了研发团队,新招了一些大模型方面的人才,张望说,偏基层模型方面的人才很贵。
张望从来没有从头开发大模型,考虑到数据安全和模型稳定性等问题,他也不打算直接接入API做应用。他们的做法是参考开源大模型,用自己的数据做训练。这也是很多应用公司目前的做法——在大模型上面,用自己的数据做一个行业小模型。张望他们从70亿参数的模型开始,做到100亿,现在在尝试300亿的模型。但他们也发现,随着数据量增加,大模型训练会出现的情况是,可能新版本不如上一个版本,就要对参数逐一调整,“这也必须走的弯路。 ”张望说。
张望告诉虎嗅,他们对于研发团队的要求就是——基于公司的业务探索AI大模型场景。
这是一种拿着“锤子”找“钉子”的方法,但并不容易。
“目前最大的问题是找到合适的场景。其实有很多场景,用了AI,效果也提升不了太多。 ”张望说,比如在上课的场景中,可以用AI大模型赋能一些交互模式,包括提醒学员上课功能、回答问题和打标签等,但试用了AI大模型理解,发现精准度不行,之后能力和输出能力并不理想。张望的团队尝试了一段时间后,决定在这个里场景暂时放弃AI。
另一家互联网服务商小鹅通,同时AI模型爆发后第一时间开展了相关业务的探索。小鹅通的主要业务是为线上商提供数字化运营工具,包括营销、客户管理以及商业变现。
小鹅通联合创始人兼COO樊晓星告诉虎嗅,今年4月,当越来越多的基于生成式AI的应用诞生时,小鹅通看到了这个技术背后的潜力,“例如MidJourney,生成式AI用于设计图像生成方面的提效确实有目共睹。”樊晓星她们在内部专门组织了AI研究的业务线,寻找与自身相关业务的落地案例。
樊晓星说,在将大模型接入业务的过程中,她所考虑的就是成本和效率,“大模型的投入成本还是相当高的。 ”她说。
互联网行业的“钉子”确实好找,AI落地真正的难点还是在工业、制造这样的产业实体。
俞凯告诉虎嗅,这波AI浪潮仍然是螺旋式上升、波浪式前进,在产业落地上面的矛盾一点都没有变化,只是换了一个套壳而已。所以从这个意义上看,这两次AI浪潮的规律是相同的,最好的办法就是学习历史——“上一波AI浪潮的教训,这次就别再犯了。”
虽然很多厂商在AI大模型的落地方面都喊出了“产业先行”的口号,但很多实体产业的场景确实很难与目前的AI大模型相匹配。比如一些工业检测场景应用在AI大模型的落地方面,甚至对AI模型的需求没有高到10亿参数的量级,但底层的数据训练仍然捉襟见肘。
以一个简单的风电巡检为例,一个风场的巡检量达到七万台次,但同样的裂痕数据,可能出现一次,机器学习的数据量是远远不够的。扩博智能风电巡检机器人只需硬件产品总监柯亮告诉虎嗅,目前导致叶片的巡检机器人还做不到100%的精确分析叶片裂痕,若和分析的数据量太小了,要形成可靠的巡检和识别,还需要大量的数据积累和人工分析。
,在工业积累数据较好的场景中,AI大模型已经可以实现复杂的三维模型零件库的辅助管理了。国内某飞机制造企业的零件库就已经建立了一款基于第四范式“其实说”大模型的零件库辅助工具。可以在十万余个三维建模零件中,通过自然语言实现三维模型搜索,以三维模型搜索三维模型,甚至可以完成三维模型的自动装配。这些功能,在很多卡住制造业的CAD、CAE工具中都需要经过多步操作才能完成。
今天的大模型和几年前的AI一样面临着落地难题,同样要拥有锤子找钉子。有人乐观地相信,今天的锤子和过去完全不一样了,但到了真金白银地为AI付费时,结果却有些不同。
彭博社在7月30日发布的Markets Live Pulse调查显示,在514名受调投资者中,约77%的人计划在未来年龄段内增加或保持对科技股的投资,且只有不到10%的投资者认为科技行业面临严重的泡沫危机。然而这些看好科技行业发展的年轻人中,却只有一半的人对AI技术持开放的接受态度。
50.2%的投资者表示,目前还不打算付费购买AI工具,大多数公司也没有计划将AI大范围应用到交易或投资中。
卖铲子的人
“如果你在1848年的淘金热潮里去加州淘金,一大堆人会死掉,但卖勺子和铲子的人,永远可以赚钱。 ”陆奇在一次演讲时说道。
高峰(化名)想当这样的“卖铲子的人”,准确地说,是能够“在中国卖好铲子的人”。
作为他的一个芯片,高峰大部分科研时间都在AI芯片上。过去两个月,他感到一种紧迫性——尝试一家基于RISC-V架构的CPU公司。在一家茶室,高峰向虎绘画了未来的图景。
然而,要从头开始做AI芯片,无论是在芯片界,还是在科技圈,都相当于一个“天方夜谭”。
当AI大模型的飞轮飞速启动时,背后的算力逐渐开始跟不上这一模拟中玩家的动作了。暴涨的算力需求,使英伟实现了最大的赢家。但GPU并不能解决算力的全部。CPU、GPU,各种创新的AI芯片,组成了大模型的主要算力提供中心。
“你可以把CPU比喻为市区,GPU就是开发的郊区。”高峰说,CPU和AI芯片之间,需要通过一个PCIE的通道连接,数据传给AI芯片,然后AI芯片再把数据回传给CPU。如果大模型的数据量变大,一条通道就会变得拥挤,速度就上不去,因此需要拓宽大道,而只有CPU能够决定连接通道的宽窄,需要设置几条通道。
这意味着,中国在大型模型上,甚至突破了AI芯片,初始化了最关键的CPU难以破局。起始是在AI上,越来越多的任务可以被指派给GPU承担,但CPU仍然是最关键的“管理者”角色。
2023WAIC大模型展区展出的部分国产芯片
自1971年英特尔制造出世界上第一块CPU至今50余年,在民用服务器、PC市场上,先后有英特尔和AMD的天下,英特尔更是在整个商业模式中建立了基础知识产权、技术积累、规模成本、软件生态壁垒,而这种壁垒前所未有。
要抛开X86架构和ARM架构,基于一个全新架构研发完全自主的CPU芯片,可以说完全是“九十九死一生”,基于MIPS指令集的龙芯,在这条路上走了20多年,更不用说是RISC-V这样足以开垦和验证过的开源架构。
指令集,就像块土地,基于指令集开发芯片,就相当于买地盖房子。X86的架构是闭源的,只允许Intel生态的芯片,ARM的架构需要支付IP授权费,而RISC-V是免费的开源架构。
产业界和学术界已经看到了这样的机会。
2010年,加州伯克利两教授的研究团队从零开始开发了一个全新的指令集,就是RISC-V,这个指令集完全开源,他们认为CPU的指令集不应该属于任何一家公司。
“ RISC-V或许是中国CPU的或许曙光。 ”高峰说。2018年,他在院所孵化了一家AI芯片公司,彼时他表示,自己不想错过AI浪潮发展的机会,这一次,他依然想抓住,而这个切入点,就是RISC-V。在大模型以及现在国产替代的时代,这个需求目光更加紧迫,毕竟,极端地考虑一下,如果有一天,中国公司用不了A100了,又该如何办。
“如果要取代ARM和X86,RISC-V的CPU需要性能更强,也需要和Linux上做商业操作系统的人参与到代码的开发中。”高峰说。
高峰并不是第一个意识到这个机会的人,一位芯片行业投资人告诉虎嗅,他曾与一家芯片创业公司创始人聊起,用RISC-V的架构争取GPU的机会。目前,在中国已有一些基于RISC-V架构做GPU的公司,但生态仍然是他们面临的最大问题。
“Linux已经示范了一条路是可以走通的。”高峰说,在Linux开源操作系统中,诞生了红帽这样的开源公司,如今许多云服务都建立在Linux系统上。“需要足够多的开发者。”高峰提出了一条方法。这条路很难,但走通了,将是一条光明的道路。
飞轮转得太快了
大模型的“中午反应”下,感到急迫的不光是高峰。
国内AI大模型公司联创告诉虎嗅,今年初他们也曾短暂上线过一款对话大模型,但随着ChatGPT的零件,相关部门提高了对大模型安全性的重视,可见他们提出了很多整改要求。
“在没有特别明确的监管政策出来的情况下,我们不会轻易把产品提供给普通用户,主要还是B的逻辑。”左手医生CEO张超认为,在《管理办法》之前,贸然将生成式AI产品开放给C端用户,风险很大。“现阶段,我们一方面在持续迭代优化,另外一方面也在持续关注政策、法规,保证开放技术的安全性。”
“生成式AI的监管方式并不明确,大模型公司的产品和服务普遍性很低调。”一家数字化技术供应商,在6月发布了一款基于某云厂商通用大模型开发的应用产品,在发布会上,该公司技术负责人向虎嗅表示,他们被这家云厂商要求严格保密,如果披露使用了谁的大模型,他们会被视为防御。而对于为何要对保密案例,此人分析,很可能很大部分原因是要窃取监管风险。
在全球都对人工智能提高警惕的当下,任何市场都不能接受监管的“真空期”。
7月13日,网信办等七个部门正式发布了《生成式人工智能服务管理暂行办法》(以下简称“管理”),该自2023年8月15日起实施。
“ 《管理办法》生活后,政策会从问题导向转为目标导向发展就是我们的目标。 ”观韬中茂律师事务所合伙人王渝伟认为,新规是重“疏”而不是重“堵”。
浏览美国的风险管理库,是王渝伟每天必需的功课,“我们正在为利用GPT等大模型进行细分行业的商业应用提供风控合规的方案,建立一套合规治理框架。”王渝伟说。
美国的AI公司正排着队向国会表忠心。7月21日,谷歌、OpenAI、微软、Meta、亚马逊、AI创业公司Inflection、Anthropic,七家最具影响力的美国AI公司,就在亚特兰大签署了部分自承诺。保证在向公众发布AI系统之前允许独立安全专家测试他们的系统。并与政府和学术界分享有关他们系统安全的数据。他们填写开发系统,当图像、视频或文本是由AI生成时向公众发出警告,采用的方法是“加水印”。
7家美国AI工会代表在白宫签署AI承诺
埃及,美国国会高度感知,OpenAI的创始人山姆·奥特曼表示,需要为人工智能模型创建一套安全标准,包括评估其危险能力。例如,模型必须通过某些安全测试,例如它们是否可以“自我复制”和“渗透到野外”。
也许山姆·奥特曼自身也没有想到,AI的飞轮会转得这么快,甚至存在失控的风险。
“我们一开始还没有意识到这件事如此紧迫。”王渝伟说,直到上门咨询的公司创始人越来越多。他感到,这一次过去的人工智能浪潮正在发生与不同的变化。
今年年初,一家率先接入大模型的文生图公司找到了王渝伟,这家公司希望把自己的业务引入中国,因此,他们想了解这方面的数据合规业务。紧接着,王渝伟发现,这类的咨询越来越多,更明显的变化是,后面咨询的不再是公司的法务,而是创始人。“生成AI的出现,原有的监管逻辑已经很难适用。 ”王渝伟说。
从事大数据法律工作多年的王渝伟发现,生成式AI与上一波AI浪潮正在呈现更加底层的变化。例如,上一次的AI更多是基于算法进行推荐,还有一些人脸识别,都是针对一个场景,针对一些小模型,在具体应用领域场景进行训练,涉及的法律问题不涉及知识产权、隐私保护的问题。而在这个生成式AI生态上部的不同角色,例如提供底层大型模型的公司,在大型模型上部接入做应用的公司,存储数据云厂商等,对应的监管都不尽相同。
目前大模型所带来的伴生风险已经有了共识,市场扩大了,商业化应用势必会出现这种风险,否则维持业务的连续性,就需要重视监管。
难点就是,“如何找到一条既能做好监管,又不影响行业发展的路径。”王渝伟说。
结语
对于整个行业来说,在对技术深入探讨的同时,也正在引发更为迫切的思考。
在人工智能日益受到科技产业的主导地位时,要如何确保技术的公正性、公平性和透明性?当头部公司加强掌控技术和资金流向时,如何确保中小企业和中小企业不被边缘化?大模型的开发和应用蕴藏着巨大潜力,但盲目跟风是否会导致我们忽视其他创新技术?
“从短期看,AI大模型正在被严重高估。但从长期看,AI大模型被严重低估了。”
然而对于中国的创业公司和科技派对来说,在热炒的市场动力中,如何保持规划清醒的判断,做好长期的投资,将是检验其真正实力和远见的关键。
邮件:siyushenqi@gmail.com
工作时间:周一至周五,9:30-18:30,节假日休息