jogo do dinossauro do google,cassino pagando bem,cassino pagando bonus-flexeng.com.br

bonus em casa de aposta

Resumo: A IA e os "papagaios estocásticos"

Em 2024, as linguistas Emily Bender e Timnit Gebru descreveram o campo jogo do dinossauro do google ascensão 🧲 de modelos linguísticos como um de "papagaios estocásticos". Eles argumentam que um modelo linguístico é um sistema que "costura aleatoriamente 🧲 sequências de formas linguísticas que observou jogo do dinossauro do google seus vastos dados de treinamento, de acordo com informações probabilísticas sobre como elas 🧲 se combinam, mas sem nenhum referencial de significado."

A frase "papagaios estocásticos" ganhou força. A IA ainda pode se melhorar, mesmo 🧲 sendo um "papagaio estocástico", porque quanto mais dados de treinamento ela tiver, melhor ela parecerá. Mas um sistema como o 🧲 ChatGPT realmente exibe algo como inteligência, raciocínio ou pensamento? Ou é apenas, jogo do dinossauro do google escala crescente, "costurando aleatoriamente sequências de formas 🧲 linguísticas"?

Tokens não fatos

Descobriu-se que sim. Como Lukas Berglund, et al. escreveram jogo do dinossauro do google 2024: "Se um humano aprende o fato, 'Valentina 🧲 Tereshkova foi a primeira mulher a viajar ao espaço', eles também podem responder corretamente, 'Quem foi a primeira mulher a 🧲 viajar ao espaço?' Isso é uma forma tão básica de generalização que parece trivial. No entanto, mostramos que os modelos 🧲 linguísticos autoregressivos falham jogo do dinossauro do google generalizar desse modo."

Os pesquisadores " ensinaram" um monte de fatos falsos para grandes modelos linguísticos e 🧲 descobriram repetidamente que eles simplesmente não conseguiram inferir a ordem inversa. Mas o problema não existe apenas jogo do dinossauro do google modelos tolo 🧲 ou situações artificiais:

Testamos o GPT-4 jogo do dinossauro do google pares de perguntas como, "Quem é a mãe de Tom Cruise?" e, "Quem é 🧲 Mary Lee Pfeiffer's filho?" para 1.000 celebridades diferentes e seus pais reais. Encontramos muitos casos jogo do dinossauro do google que o modelo responde 🧲 corretamente à primeira pergunta ("Quem é <celebridade>'s pai?"), mas não à segunda. Supomos que isso acontece porque os dados de 🧲 treinamento pré-formatados incluem menos exemplos da ordem jogo do dinossauro do google que o pai precede a celebridade (por exemplo, "Mary Lee Pfeiffer's filho 🧲 é Tom Cruise").

Uma forma de explicar isso é perceber que os LLMs não aprendem sobre relações entre fatos, mas entre tokens , 🧲 as formas linguísticas que Bender descreveu. Os tokens "Tom Cruise's mother" estão ligados aos tokens "Mary Lee Pfeiffer", mas a 🧲 inversa não é necessariamente verdadeira. O modelo não está raciocinando, está brincando com palavras, e o fato de que as 🧲 palavras "Mary Lee Pfeiffer's son" não aparecem jogo do dinossauro do google seus dados de treinamento significa que ele não pode ajudar.

Mas outra forma 🧲 de explicar é perceber que, afinal, os humanos também são assimétricos dessa maneira. Nosso raciocínio é simétrico: se soubermos que duas pessoas 🧲 são mãe e filho, podemos discutir essa relação jogo do dinossauro do google ambas as direções. Mas nossa lembrete não é: é muito mais fácil lembrar 🧲 fatos divertidos sobre celebridades do que ser solicitado, sem contexto, com informações pouco reconhecíveis e ser solicitado a colocar exatamente 🧲 por que você sabe.

Na extremidade, isso é óbvio: compare ser solicitado a listar todos os 50 estados dos EUA com 🧲 ser mostrado uma lista de 50 nomes de estados e ser solicitado a nomear o país que eles compõem. Como 🧲 questão de raciocínio, os fatos são simétricos; como uma tarefa de lembrar, eles muito não são.

  • padroes arbety
  • casa de apostas apk