A Apple restringiu o uso do ChatGPT e de outras ferramentas de inteligência artificial (IA) para seus funcionários, segundo o jornal americano The Wall Street Journal. De acordo com a publicação, a empresa está preocupada com o vazamento de dados confidenciais porque funcionários vinham usando programas de IA no trabalho.
A Apple também aconselhou os empregados a não usarem o Copilot, do GitHub, controlado pela Microsoft, e utilizado para automatizar funções de produção de código de software.
A gigante de tecnologia é conhecida por suas rigorosas medidas de segurança para proteger informações sobre futuros produtos e dados do consumidor.
Várias companhias estão cautelosas com a tecnologia, pois seus funcionários começaram a usá-la para tudo, desde escrever e-mails e material de marketing até codificar software. O J.P.Morgan Chase e a Verizon já proibiram seu uso no trabalho.
Isso porque, ao usar o ChatGPT ou modelo similares, dados são enviados de volta ao desenvolvedor para permitir melhorias contínuas. O receio das empresas é que nesse trânsito de informações, haja algum tipo de vazamento de informações confidenciais.
No mês passado, a OpenAI, criadora do ChatGPT e que recebeu investimento da Microsoft, anunciou a introdução de um “modo incógnito” que não salva o histórico de conversas dos usuários nem o utiliza para aprimorar sua inteligência artificial.
Mas as empresas ainda estão receosas quanto a seu uso. Apple, OpenAI e Microsoft foram procuradas pelo WSJ mas não comentaram o assunto.
Regulação
Regular a inteligência artificial não será tarefa fácil, mas isso não significa que a sociedade global não deva achar caminhos para isso. Essa foi a visão de Sam Altman, CEO da OpenAI, empresa dona do ChatGPT. O executivo participou na quinta-feira de uma conversa sobre ‘o futuro da inteligência artificial e o Brasil’ no Museu do Amanhã, no Rio de Janeiro, e conversou com jornalistas após o painel.
Participaram do debate Nina da Hora, cientista da computação, pesquisadora e ativista brasileira; Felipe Such, membro do corpo técnico da OpenAI; e Deniz Mizne, diretor-executivo da Fundação Lemann, como mediador da mesa. O evento foi realizado pela Fundação Lemann.
Segundo Altman, o movimento de pausa no desenvolvimento da inteligência artificial não faz sentido, embora ele simpatize com o motivo pelo qual a sociedade pede isso. O CEO da OpenAI defende a necessidade de uma regulação internacional, além do estabelecimento de padrões de segurança pelas empresas e auditorias externas para que haja uma aplicação segura de ferramentas como o ChatGPT.
“Não vou ser ingênuo e fingir que isso (regulação) é uma coisa fácil de fazer. Mas temos que tentar”, diz ele.
Durante a mesa de abertura, Altman pontuou que os sistemas de inteligência artificial influenciam todo o mundo, e é preciso estrutura internacional para lidar com isso.
“Temos que focar em mitigar os prejuízos que podem acontecer e garantir que não cometamos grandes erros que possam impactar o mundo todo. Isso é um tema bastante sensível”, disse, durante o painel. As informações são do jornal O Globo.