Cotação Seguro de Vida

Olá, sou o gentil, quero conhecer um pouco de você.

É rápido, basta preencher os dados abaixo e selecionar a forma de atendimento.

Cotação Seguro Residencial

Olá, sou o gentil, quero conhecer um pouco de você.

É rápido, basta preencher os dados abaixo e selecionar a forma de atendimento.

Cotação Seguro Empresarial

Olá, sou o gentil, quero conhecer um pouco de você.

É rápido, basta preencher os dados abaixo e selecionar a forma de atendimento.

Cotação Seguro Automóvel

Olá, sou o gentil, quero conhecer um pouco de você.

É rápido, basta preencher os dados abaixo e selecionar a forma de atendimento.

Cotação Seguro Pessoal

Olá, sou o gentil, quero conhecer um pouco de você.

É rápido, basta preencher os dados abaixo e selecionar a forma de atendimento.

Foto: Reprodução Fonte: Wagner Brenner I Update

Por que os grandes da tecnologia querem pausar temporariamente a Inteligência Artificial?

A pausa proposta não significa um retrocesso no desenvolvimento da IA em geral, mas sim um retrocesso na corrida perigosa para modelos de caixa preta cada vez maiores
03/04/2023

Mais de 1300 cientistas e empresários de tecnologia, incluindo Elon Musk, Steve Wozniak e representantes de instituições acadêmicas como Oxford, Cambridge, Stanford, Columbia, além de empresas como Google, Microsoft e Amazon, assinaram uma carta aberta pedindo uma pausa nos experimentos com Inteligência Artificial.

A carta, intitulada “Pause os experimentos com IA: carta aberta”, enfatiza que os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, e que o nível de planejamento e gerenciamento atual não é suficiente. Os signatários também questionam se é adequado deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade, e se devemos automatizar todos os trabalhos, incluindo os satisfatórios. Eles pedem que sistemas poderosos de IA sejam desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis.

Além disso, a carta destaca a necessidade de uma revisão independente e compartilhada de protocolos de segurança para o desenvolvimento de IA, que sejam rigorosamente auditados e supervisionados por especialistas externos independentes. Os desenvolvedores de IA devem trabalhar em conjunto com os formuladores de políticas para acelerar o desenvolvimento de sistemas robustos de governança de IA, que incluem supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional, sistemas de proveniência e marca d’água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos, e responsabilidade por danos causados pela IA.

Os signatários da carta afirmam que a pausa proposta não significa um retrocesso no desenvolvimento da IA em geral, mas sim um retrocesso na corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidades emergentes. A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.

Os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA, incluindo autoridades reguladoras novas e capazes dedicadas à IA, sistemas de auditoria e certificação, e instituições com bons recursos para lidar com as perturbações econômicas e políticas que a IA causará.

Veja abaixo os principais trechos da carta:

Planejamento e gerenciamento

Ao fornecer seu e-mail, você concorda com a Política de Privacidade da Forbes Brasil.

“Os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA. Conforme declarado nos amplamente endossados Princípios de IA de Asilomar , a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais. Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora os últimos meses tenham visto laboratórios de IA travados em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.”

Competição com humanos

“Os sistemas contemporâneos de IA estão se tornando competitivos para humanos em tarefas gerais e devemos nos perguntar: podemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Deveríamos desenvolver mentes não-humanas que eventualmente nos superassem em número, fossem mais espertas, obsoletas e nos substituíssem? Devemos arriscar perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema”

OpenAI e a necessidade de uma revisão independente

“A declaração recente da OpenAI sobre inteligência artificial geral afirma que ‘em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e para os esforços mais avançados concordar em limitar a taxa de crescimento da computação usada para criar novos modelos’, nós concordamos. Esse ponto é agora. Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4 . Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória.”

Por que pausar e como proceder?

“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes. Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros além de qualquer dúvida razoável. Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um retrocesso na corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidades emergentes. A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.”

Governança e transparência

“Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Estes devem incluir, no mínimo: autoridades reguladoras novas e capazes dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional; sistemas de proveniência e marca d’água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará.”

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

© Gente Seguradora - 2024 - Todos os direitos reservados.
× Como posso te ajudar?