Quarta-feira, 25 de dezembro de 2024

Porto Alegre
Porto Alegre, BR
24°
Mostly Cloudy

CADASTRE-SE E RECEBA NOSSA NEWSLETTER

Receba gratuitamente as principais notícias do dia no seu E-mail ou WhatsApp.
cadastre-se aqui

RECEBA NOSSA NEWSLETTER
GRATUITAMENTE

cadastre-se aqui

Tecnologia Apple restringe uso do ChatGPT pelos funcionários; saiba o motivo

Compartilhe esta notícia:

A empresa está preocupada com o vazamento de dados confidenciais. (Foto: Reprodução)

A Apple restringiu o uso do ChatGPT e de outras ferramentas de inteligência artificial (IA) para seus funcionários, segundo o jornal americano The Wall Street Journal. De acordo com a publicação, a empresa está preocupada com o vazamento de dados confidenciais porque funcionários vinham usando programas de IA no trabalho.

A Apple também aconselhou os empregados a não usarem o Copilot, do GitHub, controlado pela Microsoft, e utilizado para automatizar funções de produção de código de software.

A gigante de tecnologia é conhecida por suas rigorosas medidas de segurança para proteger informações sobre futuros produtos e dados do consumidor.

Várias companhias estão cautelosas com a tecnologia, pois seus funcionários começaram a usá-la para tudo, desde escrever e-mails e material de marketing até codificar software. O J.P.Morgan Chase e a Verizon já proibiram seu uso no trabalho.

Isso porque, ao usar o ChatGPT ou modelo similares, dados são enviados de volta ao desenvolvedor para permitir melhorias contínuas. O receio das empresas é que nesse trânsito de informações, haja algum tipo de vazamento de informações confidenciais.

No mês passado, a OpenAI, criadora do ChatGPT e que recebeu investimento da Microsoft, anunciou a introdução de um “modo incógnito” que não salva o histórico de conversas dos usuários nem o utiliza para aprimorar sua inteligência artificial.

Mas as empresas ainda estão receosas quanto a seu uso. Apple, OpenAI e Microsoft foram procuradas pelo WSJ mas não comentaram o assunto.

Regulação

Regular a inteligência artificial não será tarefa fácil, mas isso não significa que a sociedade global não deva achar caminhos para isso. Essa foi a visão de Sam Altman, CEO da OpenAI, empresa dona do ChatGPT. O executivo participou na quinta-feira de uma conversa sobre ‘o futuro da inteligência artificial e o Brasil’ no Museu do Amanhã, no Rio de Janeiro, e conversou com jornalistas após o painel.

Participaram do debate Nina da Hora, cientista da computação, pesquisadora e ativista brasileira; Felipe Such, membro do corpo técnico da OpenAI; e Deniz Mizne, diretor-executivo da Fundação Lemann, como mediador da mesa. O evento foi realizado pela Fundação Lemann.

Segundo Altman, o movimento de pausa no desenvolvimento da inteligência artificial não faz sentido, embora ele simpatize com o motivo pelo qual a sociedade pede isso. O CEO da OpenAI defende a necessidade de uma regulação internacional, além do estabelecimento de padrões de segurança pelas empresas e auditorias externas para que haja uma aplicação segura de ferramentas como o ChatGPT.

“Não vou ser ingênuo e fingir que isso (regulação) é uma coisa fácil de fazer. Mas temos que tentar”, diz ele.

Durante a mesa de abertura, Altman pontuou que os sistemas de inteligência artificial influenciam todo o mundo, e é preciso estrutura internacional para lidar com isso.

“Temos que focar em mitigar os prejuízos que podem acontecer e garantir que não cometamos grandes erros que possam impactar o mundo todo. Isso é um tema bastante sensível”, disse, durante o painel. As informações são do jornal O Globo.

Compartilhe esta notícia:

Voltar Todas de Tecnologia

Melhorar o ROI do marketing de afiliação com a proteção da marca orientada para a IA
Velório da rainha Elizabeth pode ter custado o dobro da coroação do rei Charles; entenda
https://www.osul.com.br/apple-restringe-uso-do-chatgpt-pelos-funcionarios-saiba-o-motivo/ Apple restringe uso do ChatGPT pelos funcionários; saiba o motivo 2023-05-19
Deixe seu comentário
Pode te interessar