糖心原创

A seguran?a da IA precisa ser uma prioridade para programas de experiência

A seguran?a da IA precisa ser uma prioridade para programas de experiência

As tecnologias emergentes de IA oferecem grandes oportunidades para transformar a forma como as empresas podem oferecer experiências aos clientes e funcionários, mas também trazem sérias quest?es de seguran?a. Na 糖心原创, nossas principais prioridades s?o a privacidade e a seguran?a dos dados de nossos clientes e a garantia do uso responsável desses dados.

糖心原创 vem treinando e empregando modelos de inteligência artificial (IA) há mais de 15 anos com Text Analytics e Speech Analytics - incluindo transcri??o de fala para texto - para empresas de setores sensíveis, como servi?os financeiros, seguros e saúde, bem como para órg?os governamentais.?

Mais de um milh?o de usuários ativos por semana utilizam essas solu??es baseadas em IA em quase todos os setores para entender e oferecer experiências personalizadas a clientes e funcionários. E hoje, anunciamos quatro solu??es inovadoras de IA generativa na Experience '24 para acelerar esses esfor?os. Como estamos focados em IA há tanto tempo, as considera??es de seguran?a s?o - e sempre ser?o - fundamentais para a forma como projetamos e implementamos modelos de IA.

Ao procurar implementar os melhores e mais recentes métodos de IA em seus programas de experiência, é fundamental entender os riscos que um modelo pode representar para a seguran?a dos dados que sua empresa manipula.?

Vamos delinear algumas das perguntas que você deve fazer a si mesmo e ao seu possível fornecedor de solu??es de IA para ter uma ideia de como eles pensam sobre a seguran?a da IA.

Seguran?a de dados: Para onde v?o meus dados? Quem os utiliza?

Alguns modelos de linguagem grandes (LLMs) ou outros modelos complexos podem exigir que seus dados saiam de seus próprios data centers para serem analisados por aqueles executados pelo proprietário do modelo. Quando os dados fluem "para fora" do seu data center e "para dentro" de um data center de terceiros, isso deixa oportunidades para os invasores interceptarem esses dados e deixa a seguran?a dos seus dados sujeita aos controles de seguran?a implementados por terceiros.?

Mas também há outros riscos de vazamento de dados. Os dados podem "vazar" na fonte ou nos subprocessadores de terceiros. Quanto mais sua rede se expandir, maior será o risco de vazamento de dados. Portanto, o fluxo dos seus dados - de onde eles vêm e para onde v?o - e os controles de seguran?a em repouso e em tr?nsito s?o extremamente importantes quando se considera a seguran?a real dos seus dados ao usar modelos de IA.?

Riscos do modelo: Para que meus dados est?o sendo usados? Como est?o sendo usados?

Em um mundo idealmente seguro em termos de dados, as empresas criariam modelos proprietários internos, os treinariam em seus próprios dados e impediriam que esses dados saíssem de seus data centers. Infelizmente, a cria??o de modelos proprietários de IA desenvolvidos especificamente para os dados e sistemas de uma única empresa é proibitivamente demorada e cara, especialmente para aquelas que est?o no início de sua jornada de IA.?

Para reduzir esses riscos, muitas organiza??es podem optar por empregar modelos internos de código aberto - modelos de código aberto hospedados em seus próprios data centers. Mesmo com pipelines de dados extremamente seguros, ainda há riscos; por exemplo, modelos treinados em conteúdo protegido por direitos autorais, modelos que n?o s?o mais suportados ou atualizados, modelos que usam tecnologia desatualizada e assim por diante. Esses riscos est?o relacionados a outro tipo de risco de seguran?a: a estabilidade do modelo.

Como posso mitigar os riscos à seguran?a dos meus dados apresentados pela IA?

Ent?o, o que você, a empresa, deve fazer para mitigar esses riscos associados à seguran?a dos modelos de IA? A resposta é escolher parceiros que estejam cientes desses riscos e que dediquem ativamente o design do modelo, os contratos legais, a seguran?a de dados, a conformidade e outros recursos relevantes para a seguran?a em suas plataformas.

Por exemplo, nossos altos padr?es de armazenamento de dados incluem criptografia em repouso, controle de acesso rigoroso, políticas de reten??o de dados, direito de exclus?o e conformidade com padr?es internacionais de seguran?a de dados, como a . O que tudo isso significa? Significa que estamos em conformidade com os mais altos padr?es de seguran?a, o que inclui garantir que os dados sejam criptografados, retidos apenas por um determinado período de tempo e possam ser excluídos mediante solicita??o.?

糖心原创 também mantém a conformidade com uma série de certifica??es e requisitos de seguran?a extremamente rigorosos, além de padr?es de seguran?a proprietários n?o cobertos por regulamenta??es. Ao usar nossos modelos de IA (Text Analytics, Speech Analytics, speech to text e qualquer coisa alimentada por esses modelos), as empresas, os órg?os governamentais e os indivíduos s?o protegidos por várias camadas de seguran?a, até a forma como projetamos nossos produtos de IA.

Além disso, lidamos com esses problemas de várias maneiras, incluindo:

1. Implementa??o de altos padr?es de seguran?a de armazenamento e transmiss?o de dados, com alinhamento aos melhores padr?es, como ISO 27001 e .

2. Alinhar-se aos padr?es de seguran?a de IA e às práticas recomendadas pelo - também conhecido como NIST AI RMF - e ISO/IEC 23053 Framework for AI Systems Using Machine Learning (ML), alguns dos padr?es globais mais robustos.

3. Cria??o de um Conselho de Modera??o de IA interno, responsável por supervisionar todo o desenvolvimento de produtos de IA na 糖心原创.?

4. Lan?amento de um Conselho Consultivo de IA externo que incluirá a participa??o das comunidades de clientes e parceiros 糖心原创 , com foco no uso responsável e ético da IA, bem como na troca de aprendizados, desafios e práticas recomendadas.

Em segundo lugar, os fornecedores devem sempre ser transparentes sobre como usar?o seus dados em seus contratos com eles. Eles devem solicitar explicitamente seu consentimento para os tipos de dados que usar?o e para qual finalidade. O site 糖心原创 garante que os clientes deem consentimento claro em nossos contratos com eles. Quando alteramos algo sobre como os dados est?o sendo usados, alertamos nossos clientes com antecedência. Nunca enviaremos seus dados a um subprocessador ambíguo ou a qualquer lugar que n?o tenha sido previamente consentido nos termos do contrato.

O resultado de tudo isso é uma base robusta e segura para modelos de IA passados, presentes e futuros, bem como para a estrutura geral da plataforma de gerenciamento de experiência da 糖心原创. Nossa dedica??o à cria??o de análises e relatórios democratizados, personalizados e seguros para negócios de escala empresarial exige que estejamos na vanguarda dos processos e normas de seguran?a. Você pode colher todos os benefícios desse trabalho e, ao mesmo tempo, saber que tem uma parte interessada responsável investida no futuro de seus programas de experiência baseados em IA.?

A seguran?a dos dados precisa ser primordial para seu fornecedor de IA

A seguran?a dos dados é essencial ao escolher um fornecedor de IA. Nós da 糖心原创 aprendemos isso trabalhando em setores sensíveis nas últimas duas décadas. A prote??o de dados está no centro de nossa abordagem de desenvolvimento e fornecimento de software. Ao considerar as solu??es de IA, é fundamental sondar os possíveis fornecedores sobre suas medidas de seguran?a.

Perguntas sobre privacidade de dados, riscos de modelo e considera??es éticas devem orientar sua avalia??o. ? fundamental entender para onde v?o seus dados e como eles s?o usados. Para reduzir os riscos, é necessário selecionar fornecedores que priorizem a seguran?a, a conformidade e a transparência. 糖心原创 A Microsoft, por exemplo, adere a padr?es rigorosos de prote??o de dados, está em conformidade com as normas internacionais e garante o consentimento explícito do cliente.

A incorpora??o da IA em seus programas de experiência é uma medida poderosa, mas deve ser feita com cuidado. O 糖心原创 n?o apenas fornece recursos de IA de ponta, mas também um compromisso de que a privacidade e a seguran?a dos dados de nossos clientes e o uso responsável desses dados s?o nossas principais prioridades.


Autor

Scot Gorman

Scot se concentra na seguran?a de IA para 糖心原创. Ele tem experiência no desenvolvimento de novos programas para dar suporte a problemas complexos de TI, SRE e seguran?a em escala. Scot também participa de conversas externas relacionadas à implementa??o ética da IA. Ele é membro do Conselho de Modera??o de IA da 糖心原创, que tem a tarefa de supervisionar a implementa??o e a melhoria contínua de nossas iniciativas voltadas para a inteligência artificial. Como um aprendiz constante que foi criado por educadores, ele gosta de compartilhar seu conhecimento da forma mais ampla possível para ajudar a permitir seguran?a e privacidade para todos.
POSTAGENS RELACIONADAS