Chatbot grok: ia de elon musk chegou com o mentor ao governo federal e continua a expandir-se

Chatbot grok: ia de elon musk chegou com o mentor ao governo federal e continua a expandir-se

Play all audios:

Loading...

A EQUIPA COMANDADA POR ELON MUSK AO SERVIÇO DO GOVERNO AMERICANO para levar mais eficiência e menos burocracia ao Governo federal (o DOGE), ESTARÁ A USAR O CHATBOT GROK DA STARTUP DO


MULTIMILIONÁRIO, A XAI, e o respetivo modelo de linguagem para analisar dados dos serviços, sem as devidas autorizações prévias. A informação está a ser avançada pela agência Reuters, não


tem confirmação oficial, mas cita três fontes próximas ao processo e vários especialistas a confirmarem que ESTA UTILIZAÇÃO PODE VIOLAR UM CONJUNTO DE LEIS, NOMEADAMENTE NA ÁREA DA


PRIVACIDADE, e dar à empresa uma enorme vantagem comercial, face a outros fornecedores de soluções de inteligência artificial. Segundo estas fontes, está a ser usada uma VERSÃO PERSONALIZADA


DO GROK PARA FACILITAR A ANÁLISE DE DOCUMENTOS, permitindo aos funcionários fazerem perguntas aos chatbot e chegarem mais rapidamente à informação que precisam, AGILIZANDO AINDA A


ELABORAÇÃO DE RELATÓRIOS. Duas das fontes da agência garantem mesmo que essa UTILIZAÇÃO TEM VINDO A SER EXPANDIDA E QUE O DEPARTAMENTO DE SEGURANÇA INTERNA TAMBÉM RECEBEU ORDENS PARA USAR O


CHATBOT, sem uma autorização prévia da solução e sem as validações que a lei prevê, para garantir que dados confidenciais não ficam acessíveis fora do âmbito que é suposto. A INDICAÇÃO PARA


USAR O CHATBOT TERÁ VINDO DO PRÓPRIO DOGE, mas a Reuters também admite que não conseguiu confirmar se essa indicação foi seguida ou ignorada pelo departamento governamental que gere


políticas de imigração, questões de segurança física e digital e um conjunto de outros temas e dados sensíveis. Para que se saiba em que medida esta possível utilização viola a legislação


americana, seria necessário saber como está a ser usada a tecnologia e a que tipo de dados tem acesso. SE ESTIVER A SER USADA PARA LIDAR COM INFORMAÇÕES GOVERNAMENTAIS SENSÍVEIS OU


CONFIDENCIAIS, COMO DADOS DE CIDADÃOS, PODEM ESTAR A SER VIOLADAS AS LEIS DE SEGURANÇA E PRIVACIDADE, concordaram cinco especialistas consultados pela Reuters. A outra questão que se coloca


tem a ver com o facto de os DADOS USADOS PELO GROK TAMBÉM ESTAREM A SERVIR PARA TREINAR O MODELO e daí surgem duas preocupações. Uma tem a ver com as GARANTIAS EXISTENTES DE QUE ESSA


INFORMAÇÃO NÃO VENHA A SER USADA POR INTERLOCUTORES OU PARA FINS ALÉM DO QUE A LEI PREVÊ. A outra é o facto de a mesma TECNOLOGIA QUE BENEFICIA AGORA DESTES DADOS PARA SER MELHORADA, VIR A


SER USADA PELA EMPRESA EM NEGÓCIOS PRIVADOS COM ORGANISMOS PÚBLICOS, já que a xAI ficará claramente numa situação de vantagem. “Dada a ESCALA DE DADOS QUE O DOGE ACUMULOU E DADAS AS


NUMEROSAS PREOCUPAÇÕES DE PORTAR ESSES DADOS PARA UM SOFTWARE COMO O GROK, ISSO PARA MIM É UMA AMEAÇA À PRIVACIDADE TÃO SÉRIA QUANTO POSSÍVEL”, admite Albert Fox Cahn, diretor executivo do


Surveillance Technology Oversight Project, uma ONG de defesa de direitos de privacidade, à Reuters. A atividade do departamento de eficiência liderado por Elon Musk tem levantado polémica


desde o início e uma das principais razões está precisamente no facto de a EQUIPA TER ACESSO A DADOS QUE NORMALMENTE NÃO ESTÃO AO ALCANCE DA MAIOR PARTE DOS FUNCIONÁRIOS FEDERAIS. O acesso a


essas bases de dados está condicionado a processos complexos de autorização e a restrições que existem para assegurar que informações mais sensíveis não são perdidas, vendidas ou que não


ficam vulneráveis à consulta por terceiros não autorizados. O DEPARTAMENTO DE SEGURANÇA INTERNA DOS ESTADOS UNIDOS JÁ ESTAVA A USAR FERRAMENTAS DE IA GENERATIVA. Tinha autorização para usar


produtos como o ChatGPT, com dados não sensíveis, e uma ferramenta interna para dados com requisitos de privacidade. Segundo as fontes da Reuters, este mês o ACESSO ÀS FERRAMENTAS COMERCIAIS


FOI CORTADO PELO SERVIÇO, DEPOIS DE SE SUSPEITAR QUE ESTAVAM A SER USADAS COM DADOS QUE NÃO PODIAM SER EXPOSTOS A ESSAS SOLUÇÕES, precisamente pela mesma falta de garantias de segurança que


se colocam agora a uma utilização do Grok para os mesmos fins.