Quatro maneiras de mostrar aos clientes que eles podem confiar em sua ferramenta empresarial de IA generativa

blog

LarLar / blog / Quatro maneiras de mostrar aos clientes que eles podem confiar em sua ferramenta empresarial de IA generativa

Jul 27, 2023

Quatro maneiras de mostrar aos clientes que eles podem confiar em sua ferramenta empresarial de IA generativa

No alvorecer da revolução da nuvem, que viu as empresas migrarem seus dados do local para a nuvem, Amazon, Google e Microsoft tiveram sucesso, pelo menos em parte, devido à sua atenção à segurança.

No início da revolução da nuvem, que viu as empresas transferirem os seus dados do local para a nuvem, a Amazon, a Google e a Microsoft tiveram sucesso, pelo menos em parte, devido à sua atenção à segurança como uma preocupação fundamental. Nenhum cliente de grande porte consideraria trabalhar com uma empresa de nuvem que não fosse certificada pelo SOC2.

Hoje, está a ocorrer outra transformação geracional, com 65% dos trabalhadores já a afirmar que utilizam IA diariamente. Grandes modelos de linguagem (LLMs), como ChatGPT, provavelmente irão derrubar os negócios da mesma forma que a computação em nuvem e os modelos de assinatura SaaS fizeram antes.

Mais uma vez, com esta tecnologia nascente vem um ceticismo merecido. Os LLMs correm o risco de “alucinar” informações fabricadas, compartilhar informações reais incorretamente e reter informações confidenciais da empresa fornecidas por funcionários desinformados.

Qualquer setor que o LLM atinja exigirá um enorme nível de confiança entre os aspirantes a prestadores de serviços e seus clientes B2B, que são, em última análise, aqueles que correm o risco de um desempenho insatisfatório. Eles vão querer analisar sua reputação, integridade de dados, segurança e certificações. Os provedores que tomarem medidas ativas para reduzir o potencial de “aleatoriedade” do LLM e construirem mais confiança serão grandes vencedores.

Por enquanto, não existem órgãos reguladores que possam lhe dar um selo de aprovação “confiável” para exibir a clientes em potencial. No entanto, aqui estão algumas maneiras pelas quais sua organização de IA generativa pode construir um livro aberto e, assim, construir a confiança de clientes em potencial.

Embora atualmente não existam certificações específicas em torno da segurança de dados em IA generativa, apenas ajudará a sua credibilidade obter o maior número possível de certificações adjacentes, como conformidade com SOC2, a norma ISO/IEC 27001 e a certificação GDPR (Regulamento Geral de Proteção de Dados).

Você também deseja estar atualizado sobre quaisquer regulamentos de privacidade de dados, que variam regionalmente. Por exemplo, quando a Meta lançou recentemente o seu concorrente no Twitter, Threads, foi impedida de lançar na UE devido a preocupações sobre a legalidade das suas práticas de rastreio de dados e criação de perfis.

À medida que você está abrindo um caminho totalmente novo em um nicho emergente, você também pode estar em posição de ajudar a formar regulamentações. Ao contrário dos avanços das grandes tecnologias do passado, organizações como a FTC estão a avançar muito mais rapidamente para investigar a segurança das plataformas generativas de IA.

Embora você possa não apertar a mão de chefes de estado globais como Sam Altman, considere entrar em contato com políticos locais e membros de comitês para oferecer sua experiência e colaboração. Ao demonstrar sua disposição em criar barreiras de proteção, você indica que deseja apenas o melhor para aqueles a quem pretende servir.

Na ausência de regulamentos oficiais, você deve definir seus próprios padrões de segurança. Crie um roteiro com marcos que você considera uma prova de confiabilidade. Isso pode incluir coisas como a criação de uma estrutura de garantia de qualidade, a obtenção de um certo nível de criptografia ou a execução de vários testes.