Domingo, Maio 19, 2024
15.3 C
Lisboa
More

    Microsoft e OpenAI Constroem IA Secreta: Investigadores Alertam Perigo Iminente

    A Microsoft e a OpenAI estão a gerar uma onda de incertezas com o desenvolvimento da sua nova Inteligência Artificial (IA) na nuvem. Esta situação tem levantado sobrancelhas entre os especialistas, que alertam para os grandes perigos que este comportamento pode acarretar. A principal crítica é que ambas as empresas estão a agir de forma inadequada ao ocultar ao mundo as suas estratégias de programação e ensino destas IAs.

    O principal concorrente destas IAs é o StableLM, um modelo de código aberto que permite saber a todo o momento que tipo de dados são usados para ensinar a IA a comportar-se de determinada maneira. Este tipo de IA também é capaz de gerar áudios, o que é extremamente interessante.

    O grande perigo da IA reside na sua natureza fechada e na falta de transparência sobre o que está a ser criado na nuvem. Este facto gera dúvidas e problemas em partes iguais. De acordo com especialistas das universidades de Oxford e Leeds, o risco não é algo que se possa ignorar. Se não se sabe com que informação a IA foi calibrada, existem grandes dúvidas sobre como ela pode funcionar e quais são os objetivos que se esperam alcançar.

    Os modelos de linguagem totalmente fechados são considerados um dos principais perigos dentro das IAs. Os criadores de LLM que defendem os modelos abertos e de livre acesso estão a lutar com veemência para que a maioria dos modelos siga este caminho. A razão é simples: ninguém sabe realmente o que está por detrás de uma IA fechada, nem como ensinam a IA, nem quais são os seus parâmetros. Esta opacidade torna-as muito pouco confiáveis.

    Emad Mostaque, fundador da Stability AI, defende que é necessário saber tudo o que está dentro destes modelos, pois são muito poderosos. Mostaque tem feito uma aposta gigantesca para defender as IAs de código aberto em detrimento das fechadas, como as da OpenAI e outras empresas. No entanto, as IAs de código fechado estão a tornar-se o padrão na indústria, apesar dos esforços das IAs de código aberto para ganhar espaço com um investimento muito mais modesto.

    A falta de transparência sobre o que está a ser criado e como está a ser ensinado é vista como um grande perigo para a indústria da IA. Acredito que a transparência e a abertura devem ser a norma no desenvolvimento da IA, para garantir a sua segurança e confiabilidade. As empresas devem ser responsáveis e éticas na sua abordagem ao desenvolvimento da IA, e a ocultação de informações só serve para gerar desconfiança e medo. É essencial que haja um equilíbrio entre a inovação tecnológica e a responsabilidade ética.

    Por Maistecnologia

    Publicidade

    spot_img
    FonteZdnet

    POSTAR COMENTÁRIO

    Por favor digite seu comentário!
    Por favor, digite seu nome aqui

    Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.

    - Publicidade -spot_img

    ÚLTIMAS NOTÍCIAS

    TSE suspende julgamento de ações que pedem cassação de Moro por atos na pré-campanha em 2022; caso será retomado na 3ª

    O Tribunal Superior Eleitoral (TSE) suspendeu nesta quinta-feira o julgamento das ações que pedem a cassação do senador Sergio...

    Artigos Relacionados

    Social Media Auto Publish Powered By : XYZScripts.com
    • https://spaudio.servers.pt/8004/stream
    • Radio Calema
    • Radio Calema