企业邮箱

中文 EN

原创
原创 年报 期刊 出版物

解放生产力的潘多拉魔盒?——浅谈AIGC政策机遇、监管脉络与合规应对

作者:芮典 | 2023.05.22


引言

计算机和互联网技术蓬勃发展至今,人工智能对不少群体而言并非陌生概念,不论是专业人士口中的“图灵测试”,还是围棋爱好者眼中被誉为人类智力和人工智能巅峰对决的AlphaGo大战围棋冠军,又或是Dota2游戏玩家感叹的OpenAI。人工智能伴随着计算机技术、算力、硬件水平的发展也在不断迭代,同时在信息处理速度、海量数据储备、科学范式以及优秀算法的多重加持下,人工智能在一些领域逐步显现出远超人类的表现,诸如利用AI技术研发新药(如寻找全新靶点、发现先导化合物、优化候选药物等)用以提升专业效率的应用也实质性地加速了人工智能商业化进程。但一段时间以来,人工智能技术应用与大多数普通人的工作生活仍有一段距离。


直至2023年初,随着MidJourney[1]从平面设计领域的“出圈”,到ChatGPT(“Chat Generative Pre-trained Transformer”)交互式应用在互联网“爆火”,人们才真正意识到人工智能与自己的距离可以如此之近。此类“处理自然语言文本大型神经网络模型”不但可以通过将人类转化处理并基于数据生成与选择答案,并且可以通过不断地训练优化反馈内容,当人们不断地基于GPT开源模型形成诸如对话交流、数据检索、文件起草、论文优化、法律咨询等应用时,AIGC(生成式人工智能“AI Generated Content”)领域似乎正是被揭开迷雾一角的商业蓝海,正待无数跃跃欲试的创业者与投资人抢占先机、探索开发。现如今正值AIGC产业从0到1的蓄力过程中,创业者与投资人也正通过尝试和实践不断加速各类应用的商业化进程,但诸如国家监管导向如何,怎样合规开展业务等问题相继抛出。AIGC相关应用的商业化呈现如同潘多拉魔盒的缓缓打开,似乎给生产力的解放带来了希望,但伴随而来的伦理道德与法律风险如何解决?

继《数据安全法》等法律以及《互联网信息服务算法推荐管理规定》等针对性规定外,国家立法机关和主管部门也在今年4月公示《生成式人工智能服务管理办法(征求意见稿)》(“《征求意见稿》”),针对现阶段生成式人工智能主要面临的安全风险及合规要素,就监管的侧重点和从业者行为边界给出了相对清晰的指引。以终为始,以行为知,本文拟以AIGC技术应用、《征求意见稿》等重要监管内容以及现阶段司法实践为切入点,简要梳理AIGC行业现阶段面临的政策机遇与监管挑战,并尝试归纳该行业从业者需要留意的合规要点。

一、AIGC的实践与问题

AIGC,英文全称“AI Generated Content”,又称生成式AI,意为人工智能生成内容。从结构上看,AIGC技术的整体由输入、学习算法、训练算法和输出四个重要要素组成[2],其的基本原理是利用人工智能技术中的“自然语言处理”“机器学习”“深度学习”等技术,对大量的语言数据进行分析、学习和模拟,从而实现对自然语言的理解和生成。


结合目前最火的应用ChatGPT来理解,人们可以利用AIGC技术实现顺畅、真实、且相对准确的人机交互,仿佛AI可以“听懂”“理解”并且与人类“交流”其所提出的任意问题。再从AI绘图软件Midjourney的成功商业化可以看到,现阶段的AIGC在输出图片方面的技术并非局限于现有数据要素的拼凑,而是基于扩散模型,完成从拆解样本数据(一个清晰完整的作品)到模糊要素再到具象文本的过程,再“学习”并执行反向过程从而基于文本指令/提示词(Prompt)输出图像作品。暂时抛开算力限制和算法模型的成熟度,从大多数潜在用户视角看,仅需以人类表达方式简单敲击键盘,就能轻而易举地得到真正想要的内容,又或只要拖拽图片素材或抽象描述,就可以快速地将脑洞可视化——此种“少劳而获”带来的冲击力和正反馈是无限的,巨大的用户群体和广阔的想象空间也正是AIGC创业者与投资人所希望看到的。


有从业者提到,任何一项技术的实现都是为了在产业落地中产生真正实际的价值[3],AIGC的价值不在于它能生产东西,而在于它能尽量不生产不想要的东西,从而真正提高使用效率,以此维度理解,AIGC技术对于生产力的解放极有可能是革命性的。在国家和地方产业政策的积极推动下,以互联网头部企业和AI科技创业企业为主力的创业大军也在陆续征占各类版图,包括媒体从业者经常接触的稿件写作和优化应用、图片或视频生成软件,以及AI翻唱系统,又或是法律从业者经常使用到的信息检索类应用。


利用前述各类软件加上庞大基数使用者所带来的无限脑洞,无数的AIGC技术衍生产品充斥在我们的生活之中,即便是部分AIGC技术模型开发者宣称已通过合理手段控制技术可能引发的伦理道德风险,但在恰当使用的基础上,用户仍旧可以得到一篇由AI代为写作的学术论文,或者通过影响AI使得其对某些事物有刻板印象。加州大学的计算机认知科学家Piantadosi对ChatGPT进行了测试,结果发现其存在着种族偏见和性别偏见问题,即在测试时收到反馈,称白人男性才会成为科学家[4],这也致使很多机构或组织对AIGC广泛应用产生的担忧。笔者今年以来被问到最多的是风险相关,而不再只包括AIGC初创企业的业务和投资相关的法律问题,诸如“通过特定方式让用户在境内使用GPT会违法吗?在境内做数据训练会导致数据出境风险吗?”“模型训练时候用某类数据是否可行?”“采用第三方标注数据风险如何?”“用这个技术做出来作品权利属于谁?”“使用者利用平台生成的东西违法或者侵权了怎么办?”等等问题层出不穷,其中部分问题也亟待厘清。


与此同时,近年欧美及我国对人工智能技术相关应用所引发的争议及司法实践也日渐增多,关注度最高的是Midjourney生成作品《黎明的曙光》(Zarya of The Dawn)被致函驳回版权保护一事。今年2月,美国版权局致函该作品版权申请者卡什塔诺娃,以Midjourney并不将提示解读为创建特定表达结果的具体指令,而只是将单词和短语转换为较小的标记,用于数据训练和生成图像,因此Midjourney的具体输出结果无法由用户预测为由[5],拒绝对“通过人工智能系统生成的图像”进行版权登记,并得出“文本指令/提示词”以及其所产生的图片作品不足以被视为“人类著作”的整体性结论。再者则是Dreamwriter作品著作权纠纷案[6]引发的讨论。在该案中,原告创作人员使用Dreamwriter智能写作助手完成了标题为《午评:沪指小幅上涨0.11%报2671.93点通信运营、石油开采等板块领涨》的财经报道文章,并于2018年8月20日在腾讯证券网站上首次发表,末尾注明“本文由腾讯机器人Dreamwriter自动撰写”。被告未经原告许可在原告发表当日即复制了涉案文章,并通过其运营的“网贷之家”网站向公众传播。


审理法院针对“判断涉案财经报道文章是否构成文字作品”这一争议焦点切入研判,从涉案作品与已有作品的差异性、独创性,并基于作品生成过程是否能体现创作者基于智力活动,以及该行为与作品特定表现形式之间的关联性进行了分析,认定该作品的表现形式是由原告主创团队相关人员个性化的安排与选择所决定的,其表现形式并非唯一,具有一定的独创性而非完全由Dreamwriter自驱创造,符合《著作权法实施条例》对“创作”的定义,基于此涉案文章属于我国著作权法所保护的文字作品。


Dreamwriter作品著作权纠纷案虽然认定了相关产出物具备可著作权性即构成法律所保护的文字作品,但笔者理解该案属于司法实践中基于个案对AIGC产物著作权形成的先例性而非普适性判断,相关主体对作品享有的精神权利,仍需要结合个案情况充分论证AIGC产物本身与人类智力成果、思想表达之间的直接关联,并结合AIGC算法逻辑、程序框架,甚至训练数据来源等条件综合判断。不论如何,仅从上述国内外案例或单个司法实践结果判断AIGC作品知识产权问题处理的最佳路径仍为时尚早。


除AIGC技术下游产物的权利保护外,上游涉数据训练所必需的数据收集也面临不小的合规性挑战。以ChatGPT为例,其原理介绍中明确提及准确的反馈需要基于海量的数据进行训练,从该模型第二代迭代至第三代的过程中,开发者披露其所参考的训练数据从10亿数量级骤增至约1700亿数量级,并且该数据量还在不断的快速增加。从专业人士的统计来看,大模型的训练数据主要来自维基百科(Wikipedia)、书籍(Books)、期刊(Journals)、Reddit社交新闻站点、Common Crawl和其他数据集[7],而对于数据收集、处理等行为本身是否符合个人信息和隐私保护的相关原则,仍存在极大不确定性并因此可能引发侵权争议。例如Facebook曾在未取得同意的情况下为美国伊利诺伊州的用户创建并存储脸部数据,用于在照片中识别和标记用户,相关标记数据被用于训练有关AI生物识别技术[8],招致集体诉讼并赔偿数亿美元。

二、政策机遇与监管脉络

对于人工智能产业的发展,国家和各地均已预先进行战略布局。国务院在2017年7月印发《新一代人工智能发展规划》中明确强调,人工智能发展在战略层面需经“三步走”进而实现目标,包括在2020年前后重点发展基础技术和应用,2025年前后重点突破智能感知、推理认知、人机协同等关键领域,实现新一代人工智能在智能制造、智能医疗、智慧城市、智能农业、国防建设等领域的广泛应用。直至2030年形成涵盖核心技术、关键系统、支撑平台和智能应用的完备产业链和高端产业。前述规划出台后,广东、云南、辽宁、上海等省份、直辖市纷纷出台新一代人工智能的发展规划和产业政策,其中上海和深圳在立法速度和立法深度层面走在了相对靠前的位置,相较于深圳更加突出创新策源产业发展,《上海市促进人工智能产业发展条例》强调人工智能先导产业地位,《深圳经济特区人工智能产业促进条例》则更加聚焦产业重点,对相关细分领域作出规定,提出重点促进基础硬件、关键软件、智能产品等方面高质量发展,具体产业包括智能芯片、人工智能框架软件和系统软件、智能机器人、智能网联汽车、无人机和无人船、人工智能医疗器械等六个细分领域,对产业发展具有较强引导作用[9]。


参考互联网技术的起步与发展路径,在数以万计产品应用商业化落地并不断迭代的过程中,国家政策、立法和监管始终引导着产业的良性发展。回溯三十年前相继出台的《计算机信息网络国际联网管理暂行规定》《全国人大常委会关于维护互联网安全的决定》,再到近年颁布的《网络安全法》《数据安全法》和《个人信息保护法》,匹配人工智能产业发展战略的必然是合理的立法进度。前述法律的正式施行意味着对网络、传输、信息、数据等要素的合规使用及相关权利保护提出了基本要求。数据与算法是人工智能的重要支撑,结合近年相关厂商基于自身利益考量,并利用用户不了解技术原理及潜在风险,时有引发各类民事刑事纠纷甚至危害国家安全的情形,主管部门通过《互联网信息服务算法推荐管理规定》(“《算法推荐管理规定》”)与《互联网信息服务深度合成管理规定》(“《深度合成管理规定》”)要求算法推荐服务方必须遵循公开透明原则,公开其算法的基本逻辑与目的机制,鼓励算法推荐服务提供方综合运用内容去重、打散干预等策略来优化其规则的透明度和可解释性。更重要的是明确相关主体应当尊重用户的知情权、选择权和退出权,包括为用户提供关闭个性化推荐或删除其个人信息选项,并对深度合成服务提供显著标识等,同时明令禁止相关主体(包括深度合成的服务提供者与技术利用者)利用算法从影响危害国家安全与公共秩序、侵犯个人隐私、传播虚假信息等违法有害活动。此外,《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》(“《安全评估规定》”)对于互联网信息服务提供者的安全评估申报义务也非常重要。


在前述各类的针对性管理规定的基础上,尤其值得注意的是,对于AIGC产业发展中面临的种种合规挑战与法律风险,随着今年初《生成式人工智能服务管理办法(征求意见稿)》的公开,很大程度上反映了主管部门的应对思路和监管路径。《征求意见稿》以研发、利用生成式人工智能产品并向公众提供服务的场景为切入点,重点针对内容安全、数据合规以及知识产权三个维度作出了相应的立法安排。


考虑到AIGC技术特性以及生成内容存在不可控与不确定性,《征求意见稿》最为注重内容安全方面的监管措施,重点包括:

◉  AIGC生成内容与核心价值观应当一致

◉  AIGC自算法设计至内容提供均应避免出现任何形式的歧视

◉  AIGC算法及内容提供者应当依据相关规定进行事前安全评估及备案

◉  AIGC生成内容应当真实准确并具备防止生成虚假信息的有效措施

◉  AIGC生成图片或视频等内容应当依据相关规定进行标识


《征求意见稿》中涉及以上内容的相关规定对AIGC内容可能造成的包括国家社会安全、扭曲价值引导、舆论不利影响、虚假信息泛滥,以及社会伦理等风险做出相对清晰有力的监管回应。同时,对于《征求意见稿》第六条、第九条、第十二条等关于安全评估备案、真实信息提供以及内容标识等规定的适用主体(“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人”即“提供者”)与场景(“利用生成式人工智能产品向公众提供服务前”)相对宽泛,是否意味着所有面向公众提供服务的生成式人工智能产品均需完成相关程序,又或完全参照《算法推荐管理规定》《深度合成管理规定》及《安全评估规定》等规定的适用条件分不同情况执行,可能存在需要进一步厘清的空间。


在AIGC应用的数据合规方面,《征求意见稿》主要针对来源与标注两个层次作出具体限制,并结合网络安全、知识产权及不正当竞争等维度的考虑佐以原则性规定,重点包括:

◉  提供者对AIGC产品的预训练数据、优化训练数据来源的合法性负责

◉  预训练及优化训练数据应满足网络安全、知识产权与个人信息方面要求

◉  鼓励优先采用安全可信的数据资源,确保数据真实准确客观多样

◉  网信及相关主管部门有权知晓人工标注数据涉及的规则、模型和类型

◉  禁止提供者主体利用数据优势实施不公平竞争


同样值得注意的是,《征求意见稿》第四条与第七条直接明确提供者在训练数据选择过程中应采取措施防止歧视,并对预训练数据、优化训练数据来源的合法性负责,实践中有较大部分的提供者与技术或数据训练实施主体并非一致,此种规定是否意味着相应的责任和义务均归集至提供者,而暂不对其他主体进行细化规制或责任分配。从监管和国内AIGC产业可能出现的竞争格局上看,归集责任并通过行业内部的责任分配传导,在现阶段下也可能更利于技术发展或便于管理追责。


而针对知识产权保护,由于《征求意见稿》旨在从整体上快速回应相关应用所产生的重大法律风险和监管问题,而知识产权相关的内容尚待学理或实践的论证,因此相应规定相对简明扼要,重点包括:

◉  提供生成式人工智能产品或服务的过程中不得侵犯知识产权

◉  预训练数据、优化训练数据不含有侵犯知识产权的内容


总而言之,《征求意见稿》相关规定能否完全匹配和适应于服务提供者现有技术与产品逻辑并形成有效监管,如何与现有立法规定妥善衔接与落地,相信会在广泛征求意见和后续不断修订中得到解决,笔者也将持续关注。

三、风险挑战与合规应对

《征求意见稿》目前呈现出对于内容传播与数据应用所引发风险的顾虑,并针对内容生产者及个人信息处理者设置法律责任来划定从业者的行为边界,但并非意味着《征求意见稿》是AIGC从业者唯一需要留意的监管内容。近年来实务中可以看到的是,从技术伦理到内容信息与数据隐私,再到业务模式与用户权益整个自上而下的技术-应用-产业各个环节中仍在不断暴露法律风险,笔者理解,合规应对的关键步骤是厘清主体与行为定性,因此AIGC运营实体应当厘清业务模式、技术应用以及产品服务的形态与实质,在此基础上选择恰当的合规路径。笔者结合实践经验与监管脉络尝试从以下几个方面简要归纳合规关注要点。


技术伦理与价值引导方面,以所有人工智能应用及使用者身份考量:

◉  遵循公平、正义和人类尊严等伦理原则

◉  禁止使用人工智能产品与服务从事不法活动,包括严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益、违反公序良俗

◉  应极力避免AIGC产品功能或服务特许产生舆论引导和社会动员方面的影响


准入限制与前置程序方面,以技术、信息服务提供者身份考量:

◉  准确判断展业准入许可或前置性备案,包括开展增值电信业务应当取得对应类别(如内容互动相关的信息服务业务类)的ICP牌照

◉  从事互联网文化活动的信息服务提供者如通过AIGC技术制作、复制相关互联网文化产品到互联网传播,则将考虑取得网络文化经营许可

◉  具有舆论属性或者社会动员能力的算法推荐服务提供者应当在限定时间内将服务形式、算法类型、自评报告等提交备案

◉  利用AIGC技术产品向公众提供服务前,应当开展安全评估并对评估结果负责,同时互联网信息服务提供者还应将安全评估报告提交主管部门


网络安全数据合规及个人信息保护方面,以个人信息处理者身份考量:

◉  提供AIGC产品或服务的过程中应对用户的输入信息和使用记录承担保护义务,不应非法留存或向他人提供可推断用户身份的输入信息或进行用户画像

◉  提供AIGC产品或服务时应留意产品或服务的隐私政策,明确用户访问网站或使用相关产品和服务时对个人信息的收集、处理、提供和必要原则,并就其收集训练数据环节数据收集、处理等是否符合个人信息保护的相关原则做出妥善安排

◉  对AIGC产品或服务进行训练前可能通过爬虫收集数据,因此需留意相应数据仍可能涉及个人信息甚至是法律规定的敏感个人信息,在此基础上需要通过用户协议获取该主体的单独同意

◉  获取用户真实身份信息,同时建立用户投诉接收处理机制,及时处理有关更正、删除、屏蔽个人信息的相关请求


投融资及企业上市方面,以发行人或投资人身份考量:

◉  应留意AIGC产品或服务所应用核心技术或算法是否存在依赖境外第三方或因迭代产生风险

◉  部分AIGC服务可能导致境内用户数据储存于境外开发者(或境外储存服务提供者)数据中心或被其调用,应留意特定主体在境内收集的个人信息和重要数据的储存及有关安全评估

◉  提供AIGC产品或服务时应留意训练数据来源及/或所衍生知识产权归属,避免引发不确定性较大的财产性权利纠纷

◉  以违反诚实信用和商业道德的其他方式不正当获取和使用他人商业数据,严重损害其他经营者和消费者的合法权益,扰乱市场公平竞争秩序的行为将可能导致不正当竞争的认定并遭受处罚

◉  应留意核心算法构成技术信息并作为商业秘密保护时的侵权风险及对核心业务或产品的不利影响


关于人工智能的发展与应用似乎正在进入一个新的阶段,此前工业革命通过机器和电气解除了人类个体力量的局限性从而发展了生产力,而伴随着AIGC潘多拉魔盒的打开,假设其可学习数据素材趋于无限,那么人工智能显然将解放人类大脑的效率阈值。人们在讨论监管影响技术发展的同时,更应当关注魔盒打开所带来的不确定风险是否会导致人工智能脱离伦理道德、法律甚至人类的控制,正如有人提到:“也许有一天,波士顿机器人穿着高仿真人皮服装,连接ChatGPT并成功地拜访了你,与此同时,有着相同“模样”的他却在另一个地方实施了一起恶性案件。于司法而言,完美的不在场证明就出现了。科技是人类解决自身存在问题的手段而非目标,科技的发展应当受到法律和伦理的规制”。[10]




注释:


[1]同名研究实验室开发的人工智能程式,可根据文本生成图像。见维基百科:https://en.m.wikipedia.org/wiki/Midjourney。

[2]《A Legal Anatomy of AI-generated Art》http://jolt.law.harvard.edu/digest/a-legal-anatomy-of-ai-generated-art-part-i

[3]《AIGC能为世界创造什么》-中国 AIGC产业峰会讲稿

[4]《OpenAI’s Impressive New Chatbot Isn’t Immune to Racism》https://www.thedailybeast.com/openais-impressive-chatgpt-chatbot-is-not-immune-to-racism

[5]《Re: Zarya of the Dawn (Registration # VAu001480196)》https://copyright.gov/docs/zarya-of-the-dawn.pdf

[6]深圳市腾讯计算机系统有限公司与上海盈讯科技有限公司著作权权属、侵权纠纷、商业贿赂不正当竞争纠纷案(2019粤0305民初14010号)

[7]ChatGPT类大模型训练数据的托管与治理-《中国金融》2023年第六期

[8]参见https://www.theverge.com/2021/2/27/22304618/judge-approves-facebook-privacy-settlement-illinois-facial-recognition

[9]参见成都市工业经济和信息化研究院公众号文章:《上海、深圳出台人工智能条例对成都的启示》

[10]《ChatGPT带来的挑战与法律风险》-检察日报-数字检察专刊·科技,作者赵宪伟

联系我们

北京总部More

地 址: 北京市朝阳区建外大街丁12号英皇集团中心8层,100022

电 话:(010) 5086 7666

传 真:(010) 5691 6450

邮 箱: kangda@kangdalawyers.com

西安More

地 址: 西安市雁塔区太白南路139号荣禾云图中心7层、15层,710061

电 话:(029)8836 0129

传 真:

邮 箱: kangda@kangdalawyers.com

深圳More

地 址: 深圳市福田区中心四路一号嘉里建设广场1期19楼,518046

电 话:(0755)8860 0388

传 真:

邮 箱: kangda@kangdalawyers.com

海口More

地 址: 海口市美兰区碧海大道86号华彩·海口湾广场A座1008、1009,邮编:570208

电 话:(0898)6625 4181

传 真:(0898)6625 5316

邮 箱: kangda@kangdalawyers.com

上海More

地 址: 上海市黄浦区中山南一路768号博荟广场C座905室,200023

电 话:(021)6390 1100

传 真:

邮 箱: kangda@kangdalawyers.com

广州More

地 址: 广州市天河区珠江东路32号利通广场29层2901室,510510

电 话:(020)3739 2666

传 真:

邮 箱: kangda@kangdalawyers.com

杭州More

地 址: 杭州市上城区西子国际中心2号楼1501-1503室,310002

电 话:(0571)8577 9929

传 真:

邮 箱: kangda@kangdalawyers.com

沈阳More

地 址: 沈阳市沈河区友好街10号新地中心40层,110013

电 话:(024)2250 3388

传 真:

邮 箱: kangda@kangdalawyers.com

南京More

地 址: 南京市建邺区应天大街888号金鹰世界A座26层,210008

电 话:(025)8411 1616

传 真:

邮 箱: kangda@kangdalawyers.com

天津More

地 址: 天津市河北区海河东路78号茂业大厦2601室,300141

电 话:(022)2445 9827

传 真:

邮 箱: kangda@kangdalawyers.com

菏泽More

地 址: 菏泽市开发区人民路菏建·数码大厦B座西单元19层,274005

电 话:(0530)5566 148

传 真:

邮 箱: kangda@kangdalawyers.com

成都More

地 址: 成都市锦江区东御街18号百扬大厦1栋11层1101室,610020

电 话:(028)8774 7485

传 真:

邮 箱: kangda@kangdalawyers.com

苏州More

地 址: 苏州市工业园区九章路69号理想创新大厦A幢12层,215316

电 话:(0512)6758 6952

传 真:(0512)6758 6972

邮 箱: kangda@kangdalawyers.com

呼和浩特More

地 址: 呼和浩特市如意开发区如意河大街西蒙奈伦广场3号楼B座8层,010050

电 话:(0471)5166 277

传 真:

邮 箱: kangda@kangdalawyers.com

香港More

地 址: 香港特区上环干诺道中200号信德中心(西翼)20层2002号

电 话:(00852)2333 9989

传 真:(00852)2333 9186

邮 箱: kangda@kangdalawyers.com

武汉More

地 址: 武汉市硚口区中山大道1号越秀.财富中心写字楼11层1101-1102,430030

电 话:(027)8361 5198

传 真:

邮 箱: kangda@kangdalawyers.com

郑州More

地 址: 郑州市金水区郑东新区农业南路51号楷林中心10座12层,450046

电 话:(0371)8895 9887

传 真:

邮 箱: kangda@kangdalawyers.com

长沙More

地 址: 长沙市雨花区芙蓉中路三段567号第六都兴业IEC32层,410021

电 话:(0731)8218 3551

传 真:(0731)8218 3551

邮 箱: kangda@kangdalawyers.com

厦门More

地 址: 厦门市湖里区高林中路469号新景地大厦23层,361016

电 话:(0592)5211 009

传 真:

邮 箱: kangda@kangdalawyers.com

重庆More

地 址: 重庆市江北区桂花街支路10号成大锦嘉国际大厦10层,400020

电 话:(023)6775 9966

传 真:

邮 箱: kangda@kangdalawyers.com

合肥More

地 址: 合肥市蜀山区政务区华润大厦西塔B座30层,230071

电 话:(0551)62930997

传 真:

邮 箱: kangda@kangdalawyers.com

宁波More

地 址: 宁波市鄞州区三眼桥街51号宁铸中心5号楼27层(宁波塔-27F),315199

电 话:(0574)8737 8737

传 真:

邮 箱: kangda@kangdalawyers.com

济南More

地 址: 济南市高新区舜泰北路舜泰广场933号博晶大厦25层2513室

电 话:(0531)8828 5613

传 真:

邮 箱: kangda@kangdalawyers.com

隐私政策

康达律师事务所(以下简称“本所”)是一家设立于中国的综合性律师事务所。本所网站上的信息仅供您参考,不应视为本所为本网站访问者就特定事项提供的法律意见或建议,本网站访问者不应将其作为作为或不作为的依据。

本所对本网站及网站所包含的文字及图片等各类信息拥有知识产权,未经授权,请勿转载或使用。

本网站超链接的第三方网站不受本所控制,仅为您方便之需,本所不对该等网站的访问者承担任何明示、默示的担保或责任。

欢迎访问本网站,如有任何问题,请与本所联系。