Tumgik
#quantização de modelo
lifetechweb · 2 months
Text
O único guia que você precisa para ajustar o Llama 3 ou qualquer outro modelo de código aberto
O ajuste fino de modelos de linguagem grandes (LLMs) como o Llama 3 envolve a adaptação de um modelo pré-treinado para tarefas específicas usando um conjunto de dados específico do domínio. Esse processo aproveita o conhecimento pré-existente do modelo, tornando-o eficiente e econômico em comparação ao treinamento do zero. Neste guia, percorreremos as etapas para ajustar o Llama 3 usando QLoRA…
Tumblr media
View On WordPress
0 notes
mmufo · 5 years
Text
O que é mecânica quântica?
Tumblr media
A mecânica quântica é o corpo das leis científicas que descrevem o comportamento maluco dos fótons, elétrons e outras partículas que compõem o universo. A mecânica quântica é o ramo da física que se relaciona com os muito pequenos.  Isso resulta no que pode parecer algumas conclusões muito estranhas sobre o mundo físico. Na escala de átomos e elétrons, muitas das equações da  mecânica clássica , que descrevem como as coisas se movem nos tamanhos e velocidades diários, deixam de ser úteis. Na mecânica clássica, os objetos existem em um local específico, em um momento específico. No entanto, na mecânica quântica, os objetos existem em vez de uma névoa de probabilidade; eles têm uma certa chance de estar no ponto A, outra chance de estar no ponto B e assim por diante.
Tumblr media
Três princípios revolucionários A mecânica quântica (QM) se desenvolveu ao longo de muitas décadas, começando como um conjunto de explicações matemáticas controversas de experimentos que a matemática da mecânica clássica não podia explicar. Tudo começou na virada do século XX, na mesma época em que Albert Einstein publicou sua  teoria da relatividade , uma revolução matemática separada na física que descreve o movimento das coisas em alta velocidade. Ao contrário da relatividade, no entanto, as origens da QM não podem ser atribuídas a nenhum cientista. Em vez disso, vários cientistas contribuíram para a fundação de três princípios revolucionários que gradualmente ganharam aceitação e verificação experimental entre 1900 e 1930. São eles: Propriedades quantizadas : certas propriedades, como posição, velocidade e cor, às vezes só podem ocorrer em quantidades específicas e definidas, como um mostrador que "clica" de número para número. Isso desafiava uma suposição fundamental da mecânica clássica, que dizia que essas propriedades deveriam existir em um espectro suave e contínuo. Para descrever a ideia de que algumas propriedades "clicaram" como um mostrador com configurações específicas, os cientistas cunharam a palavra "quantizada". Partículas de luz : Às vezes, a luz pode se comportar como uma partícula. Isso foi recebido inicialmente com críticas severas, pois era contrário a 200 anos de experimentos mostrando que a luz se comportava como uma onda; bem como ondulações na superfície de um lago calmo. A luz se comporta de maneira semelhante, na medida em que ricocheteia nas paredes e se curva em torno dos cantos, e que as cristas e vales da onda podem somar ou cancelar. Cristas de ondas adicionadas resultam em luz mais brilhante, enquanto as ondas canceladas produzem escuridão. Uma fonte de luz pode ser vista como uma bola em um bastão sendo  imersa ritmicamente no centro de um lago . A cor emitida corresponde à distância entre as cristas, que é determinada pela velocidade do ritmo da bola.  Ondas de matéria : a matéria também pode se comportar como uma onda. Isso foi contrário aos aproximadamente 30 anos de experimentos que mostram que a matéria (como elétrons) existe como partículas. Propriedades quantizadas? Em 1900, o físico alemão Max Planck procurou explicar a distribuição das cores emitidas no espectro sob o brilho de objetos em brasa e em brasa, como filamentos de lâmpadas. Ao entender fisicamente a equação que ele derivou para descrever essa distribuição, Planck percebeu que isso implicava que  eram emitidas combinações de apenas determinadas  cores (embora um grande número delas), especificamente aquelas que eram múltiplos de número inteiro de algum valor base. De alguma forma, as cores foram quantizadas! Isso foi inesperado porque a luz foi entendida como uma onda, o que significa que os valores da cor devem ser um espectro contínuo. O que poderia estar proibindo  átomos de produzir as cores entre esses múltiplos de número inteiro? Isso parecia tão estranho que Planck considerou a quantização nada mais que um truque matemático. De acordo com Helge Kragh em seu artigo de 2000 na revista Physics World, " Max Planck, o Revolucionário Relutante ", "Se uma revolução ocorreu na física em dezembro de 1900, ninguém parecia notar. Planck não foi exceção ..."  A equação de Planck também continha um número que mais tarde se tornaria muito importante para o desenvolvimento futuro da QM; hoje, é conhecido como "Constante de Planck". A quantização ajudou a explicar outros mistérios da física. Em 1907, Einstein usou a hipótese de quantização de Planck para explicar por que a temperatura de um sólido mudava em quantidades diferentes se você colocasse a mesma quantidade de calor no material, mas mudasse a temperatura inicial. Desde o início do século XIX, a ciência da  espectroscopia  mostrou que diferentes elementos emitem e absorvem cores específicas da luz chamadas "linhas espectrais". Embora a espectroscopia fosse um método confiável para determinar os elementos contidos em objetos como estrelas distantes, os cientistas ficaram intrigados com o motivo pelo  qual  cada elemento emitia essas linhas específicas em primeiro lugar. Em 1888, Johannes Rydberg derivou uma equação que descreve as linhas espectrais emitidas pelo hidrogênio, embora ninguém possa explicar por que a equação funcionou. Isso mudou em 1913, quando  Niels Bohr  aplicou a hipótese de quantização de Planck ao modelo "planetário" do átomo de Ernest Rutherford em 1911, que postulava que os elétrons orbitam o núcleo da mesma maneira que os planetas orbitam o sol. Física 2000  (um site da Universidade do Colorado), Bohr propôs que os elétrons fossem restritos a órbitas "especiais" ao redor do núcleo de um átomo. Eles podiam "pular" entre órbitas especiais, e a energia produzida pelo salto causava cores específicas da luz, observadas como linhas espectrais. Embora as propriedades quantizadas tenham sido inventadas apenas como um mero truque matemático, elas explicaram tanto que se tornaram o princípio fundador da QM. Partículas de luz? Em 1905, Einstein publicou um artigo, " Concernente a um ponto de vista heurístico em direção à emissão e transformação da luz ", no qual imaginava a luz viajando não como uma onda, mas como uma espécie de "quanta de energia". Einstein sugeriu que esse pacote de energia "poderia ser absorvido ou gerado apenas como um todo", especificamente quando um átomo "salta" entre as taxas de vibração quantizadas. Isso também se aplicaria, como seria mostrado alguns anos depois, quando um elétron "salta" entre órbitas quantizadas. Sob esse modelo, os "quanta de energia" de Einstein continham a diferença energética do salto; quando dividida pela constante de Planck, essa diferença de energia determinava a cor da luz transportada por esses quanta.  Com essa nova maneira de visualizar a luz, Einstein ofereceu insights sobre o comportamento de nove fenômenos diferentes, incluindo as cores específicas que Planck descreveu como sendo emitidas a partir de um filamento de lâmpada. Também explicou como certas cores da luz poderiam ejetar elétrons das superfícies metálicas, um fenômeno conhecido como "efeito fotoelétrico". No entanto, Einstein não estava totalmente justificado em dar esse salto, disse Stephen Klassen, professor associado de física da Universidade de Winnipeg. Em um artigo de 2008, "O efeito fotoelétrico: reabilitando a história da sala de aula de física", Klassen afirma que os quanta de energia de Einstein não são necessários para explicar todos esses nove fenômenos. Certos tratamentos matemáticos da luz como onda ainda são capazes de descrever as cores específicas que Planck descreveu como sendo emitidas de um filamento de lâmpada e o efeito fotoelétrico. De fato, na controversa vitória de Einstein do ano de 1921 Prêmio Nobel , o comitê do Nobel reconheceu apenas "sua descoberta da lei do efeito fotoelétrico", que especificamente não se baseava na noção de quanta de energia. Aproximadamente duas décadas após o trabalho de Einstein, o termo " fóton " foi popularizado para descrever quanta de energia, graças ao trabalho de 1923 de Arthur Compton, que mostrou que a luz dispersa por um feixe de elétrons mudava de cor. Isso mostrou que partículas de luz (fótons) estavam de fato colidindo com partículas de matéria (elétrons), confirmando assim a hipótese de Einstein. A essa altura, estava claro que a luz podia se comportar tanto como uma onda quanto como uma partícula, colocando a "dualidade onda-partícula" da luz na base do QM. Ondas de matéria? Desde a descoberta do elétron em 1896, as evidências de que toda a matéria existia na forma de partículas estavam se formando lentamente. Ainda assim, a demonstração da dualidade onda-partícula da luz fez os cientistas questionarem se a matéria estava limitada a agir  apenas  como partículas. Talvez a dualidade onda-partícula possa soar verdadeira também para a matéria? O primeiro cientista a avançar substancialmente com esse raciocínio foi um físico francês chamado Louis de Broglie. Em 1924, de Broglie usou as equações da  teoria da relatividade especial de Einstein para mostrar que as partículas podem exibir características semelhantes a ondas e que as ondas podem exibir características semelhantes a partículas. Então, em 1925, dois cientistas, trabalhando de forma independente e usando linhas separadas de pensamento matemático, aplicaram o raciocínio de De Broglie para explicar como os elétrons zuniam nos átomos (um fenômeno inexplicável usando as equações da  mecânica clássica ). Na Alemanha, o físico Werner Heisenberg (em parceria com Max Born e Pascual Jordan) conseguiu isso desenvolvendo a "mecânica matricial". O físico austríaco Erwin Schrödinger desenvolveu uma teoria semelhante chamada "mecânica das ondas". Schrödinger mostrou em 1926 que essas duas abordagens eram equivalentes (embora o físico suíço Wolfgang Pauli tenha enviado um  resultado não publicado para Jordan, mostrando que a mecânica das matrizes era mais completa). O modelo Heisenberg-Schrödinger do átomo, no qual cada elétron age como uma onda (às vezes chamada de "nuvem") ao redor do núcleo de um átomo, substituiu o modelo Rutherford-Bohr. Uma estipulação do novo modelo era que as extremidades da onda que forma um elétron devem se encontrar. Em " Mecânica Quântica em Química, 3ª Ed."(WA Benjamin, 1981), Melvin Hanna escreve:" A imposição das condições de contorno restringiu a energia a valores discretos. "Uma conseqüência dessa estipulação é que apenas um número inteiro de cristas e vales é permitido, o que explica por que algumas propriedades No modelo Heisenberg-Schrödinger do átomo, os elétrons obedecem a uma "função de onda" e ocupam "orbitais" em vez de órbitas. Diferentemente das órbitas circulares do modelo de Rutherford-Bohr, os orbitais atômicos têm uma variedade de formas, variando de esferas halteres para margaridas. Em 1927, Walter Heitler e Fritz London desenvolveram ainda mais a mecânica das ondas para mostrar como os orbitais atômicos poderiam se combinar para formar orbitais moleculares, mostrando efetivamente por que os átomos se ligam uns aos outros para formar  moléculas . Esse era outro problema que não havia sido solucionado usando a matemática da mecânica clássica. Essas idéias deram origem ao campo da "química quântica". O princípio da incerteza Também em 1927, Heisenberg deu outra grande contribuição à física quântica. Ele argumentou que, como a matéria age como ondas, algumas propriedades, como a posição e a velocidade de um elétron, são "complementares", o que significa que há um limite (relacionado à constante de Planck) de quão bem a precisão de cada propriedade pode ser conhecida. Sob o que viria a ser chamado de "princípio da incerteza de Heisenberg  ", argumentou-se que quanto mais precisamente a posição de um elétron é conhecida, menos exatamente sua velocidade pode ser conhecida e vice-versa. Esse princípio da incerteza também se aplica a objetos de tamanho diário, mas não é perceptível porque a falta de precisão é extraordinariamente pequena. De acordo com Dave Slaven, do Morningside College (Sioux City, IA), se uma bola de beisebol , a precisão máxima com a qual é possível saber a posição da bola é 0,0000000000000000000000000000000008 milímetros. para a frente Os princípios de quantização, dualidade de onda-partícula e o princípio da incerteza inauguraram uma nova era para a QM. Em 1927, Paul Dirac aplicou uma compreensão quântica de campos elétricos e magnéticos para dar origem ao estudo da "teoria quântica de campos" (QFT), que tratava partículas (como fótons e elétrons) como estados excitados de um campo físico subjacente. O trabalho na QFT continuou por uma década, até que os cientistas encontraram um obstáculo: muitas equações na QFT pararam de fazer sentido físico porque produziam resultados infinitos. Após uma década de estagnação, Hans Bethe fez um avanço em 1947, usando uma técnica chamada "renormalização". Aqui, Bethe percebeu que todos os resultados infinitos estavam relacionados a dois fenômenos (especificamente "auto-energia eletrônica" e "polarização a vácuo" Desde o avanço da renormalização, o QFT serviu de base para o desenvolvimento de teorias quânticas sobre as quatro forças fundamentais da natureza: 1) eletromagnetismo, 2) força nuclear fraca, 3) força nuclear forte e 4) gravidade. O primeiro insight fornecido pela QFT foi uma descrição quântica do eletromagnetismo por meio da "eletrodinâmica quântica" (QED), que avançou no final da década de 1940 e no início da década de 1950. A seguir, foi apresentada uma descrição quântica da força nuclear fraca, que foi unificada ao eletromagnetismo para construir a "teoria da electroweak" (EWT) ao longo da década de 1960. Finalmente, chegou um tratamento quântico da força nuclear forte usando a "cromodinâmica quântica" (QCD) nas décadas de 1960 e 1970. As teorias de QED, EWT e QCD juntas formam a base do  Modelo Padrão da física de partículas. Infelizmente, a QFT ainda não produziu uma teoria quântica da gravidade. Essa busca continua hoje nos estudos da teoria das cordas e da gravidade quântica em loop. Fonte | Fonte Read the full article
1 note · View note
enzorochafotografia · 5 years
Text
Escala de Planck
Definição
A Escala de Planck é a escala na qual os efeitos da mecânica quântica se tornam significativos para representar o espaço-tempo e outros fenômenos gravitacionais, normalmente definidos como sendo da ordem de um comprimento de Planck (~ 10 m).
O que é
Em física, a escala de Planck refere-se a uma escala de energia muito grande (1,22 x 1019 GeV) ou a uma escala de tamanho muito pequena (1,616 x 10-35 metros), onde os efeitos quânticos da gravidade se tornam importantes na descrição das interações de partículas.
Na escala de tamanho de Planck, a incerteza quântica é tão intensa que conceitos como localidade e causalidade se tornam menos significativos.
Os físicos de hoje estão muito interessados em aprender mais sobre a escala de Planck, pois uma teoria quântica da gravidade é algo que atualmente não temos.
Se um físico fosse capaz de propor uma teoria quântica da gravidade que concordasse com o experimento, isso praticamente garantiria a eles um Prêmio Nobel.
É um fato fundamental da física da luz que, quanto mais energia um fóton (partícula de luz) transporta, menor é o comprimento de onda que ele possui.
Por exemplo, a luz visível tem um comprimento de onda de algumas centenas de nanômetros, enquanto os raios gama, muito mais energéticos, têm um comprimento de onda do tamanho de um núcleo atômico.
A energia de Planck e o comprimento de Planck estão relacionados, pois um fóton precisaria ter um valor de energia na escala de Planck para ter um comprimento de onda tão pequeno quanto o comprimento de Planck.
Para tornar as coisas ainda mais complicadas, mesmo que pudéssemos criar um fóton tão energético, não poderíamos usá-lo para medir com precisão algo na escala de Planck – seria tão enérgico que o fóton colapsaria em um buraco negro antes de retornar qualquer informação.
Assim, muitos físicos acreditam que a escala de Planck representa algum tipo de limite fundamental de quão pequenas são as distâncias que podemos sondar.
O comprimento de Planck pode ser a menor escala de tamanho fisicamente significativa que existe; nesse caso, o universo pode ser pensado como uma tapeçaria de “pixels” – cada um com um comprimento de Planck em diâmetro.
A escala de energia de Planck é quase inimaginavelmente grande, enquanto a escala de tamanho de Planck é quase inimaginavelmente pequena.
A energia de Planck é cerca de um quintilhão de vezes maior do que as energias alcançáveis em nossos melhores aceleradores de partículas, que são usados para criar e observar partículas subatômicas exóticas.
Um acelerador de partículas poderoso o suficiente para sondar diretamente a escala de Planck precisaria ter uma circunferência de tamanho semelhante à órbita de Marte, construída a partir de tanto material quanto a nossa Lua.
Como esse acelerador de partículas provavelmente não será construído em um futuro previsível, os físicos procuram outros métodos para sondar a escala de Planck. Procura-se gigantescas “cordas cósmicas” que podem ter sido criadas quando o universo como um todo era tão quente e pequeno que possuía energias no nível de Planck. Isso teria ocorrido no primeiro bilionésimo de segundo após o Big Bang.
Unidades básicas de Planck
As unidades básicas de Planck são: comprimento, massa, temperatura, tempo e carga.
Vamos considerar a unidade de comprimento de Planck por um momento.
O próton é cerca de 100 milhões de trilhões de vezes maior que o comprimento de Planck. Para colocar isso em perspectiva, se escalássemos o próton até o tamanho do universo observável, o comprimento de Planck seria uma mera viagem de Tóquio a Chicago. O voo de 14 horas pode parecer longo para você, mas para o universo passaria completamente despercebido.
A escala de Planck foi inventada como um conjunto de unidades universais, por isso foi um choque quando esses limites também se revelaram os limites em que as leis conhecidas da física se aplicavam.
Por exemplo, uma distância menor que o comprimento de Planck simplesmente não faz sentido – a física se decompõe.
Os físicos não sabem o que realmente acontece na escala de Planck, mas podem especular.
Alguns físicos teóricos das partículas preveem todas as quatro forças fundamentais – gravidade, força fraca, eletromagnetismo e força forte – finalmente se fundem em uma força nessa energia.
Gravidade quântica e supercordas também são possíveis fenômenos que podem dominar na escala de energia de Planck.
Qual é o comprimento de Planck? Qual é o tempo de Planck?
O comprimento de Planck é a escala na qual as idéias clássicas sobre gravidade e espaço-tempo deixam de ser válidas e os efeitos quânticos dominam. Este é o ‘quantum of length’, a menor medida de comprimento com qualquer significado.
E aproximadamente igual a 1,6 x 10-35 m ou cerca de 10 a 20 vezes o tamanho de um próton.
O tempo de Planck é o tempo que levaria um fóton viajando na velocidade da luz a uma distância igual ao comprimento de Planck.
Este é o ‘quantum of time’, a menor medida de tempo que tem algum significado e é igual a 10-43 segundos.
Nenhuma divisão menor do tempo tem algum significado. Dentro da estrutura das leis da física como as entendemos hoje, podemos dizer apenas que o universo surgiu quando já tinha uma idade de 10 a 43 segundos.
Quem foi Max Planck?
Tentando descobrir a física da luz, Max Planck sentiu-se confuso.
Até 1900, todos pensavam que a luz era um fluxo contínuo, indivisível até o nível mais baixo.
Planck era um pensador conservador e geralmente confiava na sabedoria aceita, mas seus cálculos foram confundidos por representar a luz como contínua.
Usando a interpretação estatística de Ludwig Boltzmann da 2ª lei da termodinâmica como base, Planck introduziu a idéia de quantização – representando a luz como pacotes discretos que mais tarde seriam chamados fótons.
Mais tarde, questionado sobre essa decisão, ele a chamou de “um ato de desespero… Estava pronto para sacrificar qualquer uma das minhas convicções anteriores sobre física”.
No modelo de luz de Max Planck, a energia eletromagnética tinha que ser emitida em níveis discretos de energia, múltiplos de uma unidade E, que era o produto da frequência da radiação e uma unidade natural conhecida como constante de Planck.
De fato, sabemos hoje que raios de luz com frequências mais altas e comprimentos de onda mais curtos, como raios-x, carregam mais energia do que frequências mais baixas, como luz visível e ondas de rádio.
Da constante de Planck, os físicos conseguiram derivar uma série de unidades fundamentais, baseadas não na decisão humana, mas nas propriedades fundamentais do universo.
Freqüentemente, esses números representam o maior ou menor valor possível que faz sentido sob a nossa teoria física atual.
Por exemplo, no comprimento de Planck, muitas vezes menor que um próton, e no tempo de Planck, uma unidade incrivelmente pequena, nosso entendimento da física quântica deixa de fazer sentido. Na temperatura de Planck, muitos trilhões de vezes maior que a temperatura no núcleo do Sol, todas as forças fundamentais da natureza se uniriam e as simetrias quebrariam desde que o Big Bang seria restaurado.
A velocidade de Planck é equivalente à velocidade da luz e assim por diante.
Quando Max Planck descobriu todas essas unidades fundamentais, nossa compreensão do universo se tornou muito mais digital.
Planck ajudou a explicar o que aconteceu no instante após o Big Bang
Max Planck ganhou o Prêmio Nobel de Física em 1918
Fonte: www.symmetrymagazine.org/https://ift.tt/36YIJix
O post Escala de Planck apareceu primeiro em Portal São Francisco.
Escala de Planck Publicado primeiro em https://www.portalsaofrancisco.com.br/
Este conteúdo apareceu primeiro em: https://ift.tt/2E4forM
0 notes
tesaonews · 6 years
Text
109 horas de vídeo de sexo oral foram usadas para treinar IA "bola-gato"
O mercado erótico tradicionalmente é um dos grandes impulsionadores de novas tecnologias. E com a inteligência artificial não está sendo muito diferente. Brinquedos sexuais equipados com IA e os robôs sexuais bizarramente parecidos com pessoas de verdade estão aí, batendo à porta do mercado. E um brinquedo chamado Autoblow AI faz exatamente o que o nome sugere: voltado a pessoas com pênis, ele conta com inteligência artificial para aprimorar suas técnicas e fazer um “bola-gato” inesquecível.
O acessório consiste em uma “manga” de borracha com um motor alojado em uma vasilha que foi desenvolvida para simular o sexo oral. Uma campanha de financiamento coletivo no Indiegogo está em andamento para viabilizar o lançamento comercial do produto, já arrecadando quase 50% de seu objetivo. E sua grande diferença entre a versão anterior do brinquedo é justamente seu algoritmo de aprendizado de máquina, que “muda continuamente sua técnica” para agradar ao usuário de acordo com suas preferências.
  Então, no lugar de movimentos mecânicos e repetitivos (como acontece com outros brinquedos sexuais voltados para o sexo oral fálico), o Autoblow AI promete replicar movimentos sutis e imprevisíveis de uma pessoa de verdade. Para isso, a empresa contratou seis pessoas para que fizessem uma atividade que muitos considerariam fazer de graça, por puro prazer: assistir a 109 horas de filmes pornográficos, anotando tudo o que achassem relevante para ensinar a IA a ser a melhor parceira de seu usuário. Engenheiros de aprendizado de máquina, então, criaram um modelo pegando todos os dados levantados pela equipe para que o brinquedo aprendesse a prática direitinho — processo que levou quase três anos para ser concluído.
Tudo isso está devidamente documentado no Blowjob Paper, nome do estudo em questão. “Neste trabalho, procuramos quantificar os movimentos típicos envolvidos no sexo oral realizado em homens. Para isso, analisamos um conjunto de dados, anotando em cada quadro a posição dos lábios ao longo do eixo do pênis. Usamos técnicas de quantização para descobrir dezesseis movimentos distintos, e usando esses movimentos nós projetamos e avaliamos um sistema que processualmente gera sequências de movimentos realistas usando aprendizado profundo”, explica o documento.
Um acessório opcional para o brinquedo é essa peça com o formato de uma boca humana (Foto: Autoblow)
Brian Sloan, criador do brinquedo, disse ao Motherboard que, depois de sete empresas negarem a proposta de se envolverem com uma pesquisa sexual como esta, a oitava que topou cobrou um valor de US$ 30 mil para disponibilizar seus cientistas para o estudo. Ainda assim, o combinado envolveu omitir o nome dos autores, com nenhuma instituição atestando o trabalho. Isso porque os cientistas acreditaram que seus outros clientes poderiam passar a enxergá-los com maus olhos caso seus nomes fossem atrelados a uma pesquisa envolvendo pornografia. Mas isso não está ligado a moralismo da equipe, que, na verdade, se divertiu conduzindo o estudo: segundo um dos cientistas anônimos, “as corporações não querem ser associadas de maneira alguma à controvérsia; simplesmente não é aceitável para eles, e eles vêem isso como um pesadelo de relações públicas”.
Contudo, “brinquedos sexuais estão disponíveis basicamente em todo o mundo desenvolvido; obviamente, as pessoas querem essas coisas”. A campanha do Autoblow AI ainda vai durar por mais 25 dias no Indiegogo, e o produto, por lá, está custando US$ 139 + frete.
Leia aqui a matéria original
O post 109 horas de vídeo de sexo oral foram usadas para treinar IA "bola-gato" apareceu primeiro em Tesão News.
source https://tesaonews.com.br/noticia-tesao/109-horas-de-video-de-sexo-oral-foram-usadas-para-treinar-ia-bola-gato/
0 notes
veredictor · 6 years
Text
Estudo dos espectros estelares.
Tumblr media
Espectroscopia Uma carga em repouso gera um campo elétrico em sua volta. Se esta carga estiver em movimento, o campo elétrico, em uma posição qualquer, estará variando no tempo e gerará um campo magnético que também varia com o tempo. Estes campos, em conjunto, constituem uma onda eletromagnética, que se propaga mesmo no vácuo. James Clerk Maxwell (1831-1879) demonstrou que a luz é uma onda eletromagnética. À intensidade da luz em diferentes comprimentos de onda, chamamos de espectro. Quase toda informação sobre as propriedades físicas das estrelas são obtidas direta ou indiretamente de seus espectros, principalmente suas temperaturas, densidades e composições. Histórico Isaac Newton demonstrou em 1665-66 que a luz branca, como a luz do Sol, ao passar por um prisma se decompõe em luz de diferentes cores, formando um espectro como o arco-íris.
Em 1802, William Hyde Wollaston (1766-1828) observou que, passando a luz solar por uma fenda e depois por um prisma, apareciam algumas linhas escuras no espectro, que ele interpretou erroneamente como o limite das cores.Estas linhas são imagens da fenda do espectrógrafo em diferentes comprimentos de onda. Até 1820, o fabricante de instrumentos de vidro (lentes, prismas, microscópios e telescópios) alemão Joseph von Fraunhofer (Frauenhofer) (1787-1826), de Munique, já havia contado 574 linhas escuras no espectro solar, chamadas depois de linhas de Fraunhofer. Para 324 destas linhas, Fraunhofer deu o nome de letras maiúsculas: A, B, C ... para as linhas mais fortes e minúsculas para as mais fracas, começando com a no vermelho.
Tumblr media
Fraunhofer também observou linhas nos espectros das estrelas Sírius, Castor, Pollux, Capella, Betelgeuse e Procyon. Na verdade Fraunhofer utilizava as linhas do espectro solar para calibrar seus instrumentos (vidros e prismas), que eram os de melhor qualidade fabricados naquela época. Como pequenas variações na quantidade e mistura de quartzo (SiO2), cal (CaO) e soda (carbonato de sódio, Na2CO3) que compõem o vidro (basicamente SiO4) fazem que os prismas fabricados desloquem o comprimento de onda em diferentes ângulos, Fraunhofer usava as linhas do espectro solar para determinar as propriedades dos vidros. Apresentando seus resultados na Academia de Ciências da Bavária, foi eleito membro e ministrou aulas na Universidade da Bavária por muitos anos, apesar de não possuir educação formal. Como veremos a seguir, 40 anos depois as linhas foram identificadas por Gustav Robert Kirchhoff como sendo:
Tumblr media
Variação do espectro contínuo com a temperatura Espectros das estrelas por classe espectral, graficados com uma lei de Planck de temperatura indicada, de 3000 Å a 18 000 Å.
Tumblr media
A curva de distribuição de energia de um espectro contínuo tem forma similar à de um corpo negro, ou seja, segue aproximadamente a lei de Planck. Se observada da Terra, a atmosfera da Terra absorve a luz ultravioleta. Quanto maior a temperatura, maior a intensidade da radiação e menor o comprimento de onda em que ocorre o pico da intensidade. Como vimos, a relação entre o comprimento de onda em que ocorre o pico da intensidade (Åmax), é dada pela lei de Wien:
Tumblr media
Bunsen & Kirchhoff Em 1856, o químico alemão Robert Wilhelm Bunsen (1811-1899) inventou o bico de gás (bico de Bunsen), cuja vantagem era a de ter chama incolor. Quando um elemento químico era colocado sobre a chama, as cores emitidas eram as da substância, e não da chama. Bunsen tinha um colaborador mais jovem, o físicoGustav Robert Kirchhoff (1824-1887), de Heidelberg. Kirchhoff já havia formulado as leis que governam as voltagens e correntes em circuitos elétricos, que levam seu nome, em 1845. Em 1856, Kirchhoff sugeriu que as cores seriam melhor distingüidas se passadas através de um prisma. Eles colocaram um prisma na frente de um conjunto de lentes e passaram a identificar as linhas com os elementos químicos. Os gases quentes observados por Kirchhoff e Bunsen não emitiam um espectro contínuo. Eles descobriram quecada elemento gerava uma série de linhas diferentes. Por exemplo, o neônio tinha linhas no vermelho (por isto um cartaz de neon é vermelho), o sódio tinhas linhas no amarelo e o mercúrio tinha linhas no amarelo e no verde. Estas linhas eram todas brilhantes, enquanto as linhas de Fraunhofer eram escuras. Kirchhoff queria confirmar que as linhas escuras D descobertas por Fraunhofer eram linhas de sódio. Para isto ele passou a luz do Sol através de uma chama de sódio, esperando que as linhas do sódio preenchessem as linhas escuras do Sol. Para sua surpresa, as linhas D ficavam mais fortes, mais escuras. Ele então substituiu o Sol por um sólido quente. A luz do sólido que passava pela chama apresentava as mesmas linhas escuras do Sol, na posição das linhas do sódio. Ele então concluiu que o Sol era um gás ou sólido quente, envolto por um gás mais frio. Estas camadas mais frias é que produziam as linhas escuras do Sol. Comparando o espectro, ele descobriu linhas de Mg, Ca, Cr, Co, Zi, Ba e Ni no Sol. De suas experiências, Kirchhoff formulou as três leis empíricas da espectroscopia, para determinar a composição de uma mistura de elementos. Leis de Kirchhoff
Tumblr media
1) Um corpo opaco quente, sólido, líquido ou gasoso, emite um espectro contínuo. 2) Um gás transparente produz um espectro de linhas brilhantes (de emissão). O número e a posição destas linhas depende dos elementos químicos presentes no gás. 3) Se um espectro contínuo passar por um gás à temperatura mais baixa, o gás frio causa a presença de linhas escuras (absorção). O número e a posição destas linhas depende dos elementos químicos presentes no gás.
Tumblr media
Simulação das Linhas Embora um átomo isolado só emita em determinados comprimentos de onda, muitos átomos comprimidos juntos num material emitem radiação em uma banda de linhas, já que têm velocidades diferentes e os comprimentos de onda se deslocam pelo efeito Doppler. É importante notar que as linhas escuras não significam ausência de luz, somente o contraste de menos luz. O gás mais frio absorve mais radiação que emite e, portanto, gera linhas escuras. Se estiver emequilíbrio, isto é, nem aquecendo nem esfriando, um gás absorve a radiação vinda em sua direção e a re-emite em todas as direções, causando um decréscimo de fluxo na direção da fonte. Se não estiver em equilíbrio, o gás aquece. A observação dos espectros estelares tomou impulso em 1860 com Giovanni Battista Donati (1826-1873) em Florença, e logo depois com Lewis M. Rutherfund (1816-1892) em Nova Iorque, George Biddel Airy (1801-1891) em Greenwich, William Huggins (1824-1910) em Londres, e Angelo Secchi (1818-1878), em Roma. Em 1862, o astrônomo sueco Anders Jonas Ångström (1814-1874), aumentando a precisão de medida do comprimento de onda, identificou as linhas de hidrogênio no Sol. A identificação do elemento hidrogênio já havia sido feita em 1766 pelo físico e químico inglês Henry Cavendish (1731-1810). Em 1868, o astrônomo inglês Sir Joseph Norman Lockyer (1836-1920) descobriu uma linha inexplicada no espectro do Sol, que ele identificou com um novo elemento químico, hélio, do grego helios, Sol. Lockyer mais tarde fundou a revista Nature, e foi seu editor por 50 anos. Independentemente, o astrônomo francês Pierre-Jules-César Jansse (1824-1907) também identificou esta linha, no mesmo ano. Somente 27 anos mais tarde o elemento hélio foi descoberto na Terra, pelo químico inglês Sir William Ramsay (1852-1916) quando o espectro de um minério de urânio contendo hélio produziu uma linha na posição exata daquela encontrada por Lockyer no espectro do Sol. Hoje em dia sabemos que o hélio é o segundo elemento mais abundante no Universo. O primeiro é o hidrogênio. A Origem das Linhas Espectrais: átomos e luz No início do século XX, os cientistas começaram a estabelecer as bases para a compreensão da formação dos espectros à medida que eles começaram a aprender mais sobre a estrutura dos átomos e a natureza da luz.
Tumblr media Tumblr media
Os experimentos de Ernest Rutherford (1871-1937) em 1909, auxiliado por Hans Geiger (1882-1945) e Ernest Marsden (1889-1970), bombardeando folhas de ouro com partículas alfa (íons de hélio), resultando que 1 em cada 20 000 partículas incidentes eram refletidas na mesma direção de incidência, demonstraram que os átomos são compostos de um pequeno núcleo, com carga elétrica positiva, rodeado por uma nuvem de elétrons, com carga elétrica negativa. Esses elétrons não poderiam estar parados, pois eles cairiam em direção ao núcleo devido à atração coulombiana, então Rutherford propôs que os elétrons estariam girando em torno do núcleo em órbitas circulares. No entanto, isso não resolvia o problema da estabilidade do núcleo, pois cargas elétricas aceleradas emitem energia, e a perda de energia faria os elétrons espiralarem rapidamente em direção ao núcleo, emitindo radiação em todos os comprimentos de onda e tornando os átomos instáveis. Esse modelo atômico não era satisfatório, pois os átomos obviamente são estáveis, além do mais era conhecido, através dos estudos dos espectros de emissão, que quando os átomos emitem radiação, eles o fazem somente em certos comprimentos de onda, específicos de cada elemento, e não em todos os comprimentos de onda. Isso gerou a suspeita de que as leis da mecânica clássica não se aplicavam totalmente a corpos microscópicos como os átomos e propiciou o surgimento da mecânica quântica. Em 1900, o cientista alemão Max Planck (1858-1947) desenvolveu o modelo da quantização da luz, segundo o qual a matéria emite luz em pacotes de energia, que ele denominou quanta.
Tumblr media
A figura mostra um átomo constituído de um núcleo e um elétron (bolinha azul) em meio a várias partículas (bolinhas amarelas). Uma partícula colide com o átomo (1) que se excita, fazendo com que seu elétron pule para um nível de maior energia (2). Em seguida o elétron volta para seu nível de energia original, liberando a energia extra na forma de um fóton de luz (3).  ------------------------------------------- ⟫⟫⟫  DIREITOS AUTORAIS ⟪⟪⟪ ------------------------------------------- Copyright© Kepler de Souza Oliveira Filho ([email protected]) & Maria de Fátima Oliveira Saraiva ([email protected]). (Conteúdo adaptado). FONTE: http://astro.if.ufrgs.br/rad/espec/espec.htm -----------------------------------------------------
0 notes
Internet Programador visual E Desenvolvedor Internet
Especialmente na espaço de WebDesign existem varias opções de cursos online, deixando os profissionais até alguma coisa confusos no momento de optar. Para ser um desenvolvedor completo, vale a pena aprender alguma coisa sobre a secção visual dos sites; varias vezes você irá trabalhar com um webdesigner, mas pode ser realmente interessante conhecer ferramentas de design por conta própria, aumentando sua versatilidade. Uma das grandes dificuldades ainda no planeta do desenvolvimento para aplicações é ter uma ferramenta de programação em que desenvolvedor não perda tanto tempo com a secção de "desenho industrial", quer dizer, procura-se a todo momento ferramentas de desenvolvimento similares ao Delphi ou Visual Basic. A vida de desenvolvedor web já foi mais difícil, hosts, domínios, estágio era tudo muito complicado e descentralizado, isto foi mudando com tempo, porém com a facilidade de desenvolvimento também acontece um outro entrave chamado de quantização. Assim evoluiu Android entrando ao meio do caos e definindo diversos padrões para sistemas operacionais moveis, apesar do Android ainda estar engatinhando este já apresenta tamanha maturidade no mercado que torna uma supimpa utensílio de trabalho e laser, então muitos desenvolvedores enxergam Android como a plataforma traste do futuro e apostam alto nisto. título de Comentador de garantia da qualidade (QA) é mas com frequência empregado para descrever um profissional que testa e tweaks programar aplicações em companhia de desenvolvimento de utilitário Um crítico deve também trabalhar em uma fábrica ou serviço instalações, supervisar a produção e sugerir formas de melhorar a qualidade global. Apresenta também as melhores práticas na construção das matrizes e as ferramentas que automatizam este processo, servindo como diretriz para a escolha do modelo a ser adotado para implantação na empresa que visa atingir a melhoria na qualidade do aplicativo desenvolvido. Deste modo, os framework Hibernet e JSF possibilitam uma maior liberdade para os desenvolvedores e no caso exclusivamente do JSF uma redução de tempo na confecção de projetos, uma vez que as empresas solicitam projetos, sistemas, em um tempo qualquer vez menor. Prosseguirei ingressar na espaço de desenvolvimento rede, e lendo os posts daqui da Becode, me interessei muito em aprender a ser uma Full-stack, evidente que talvez seja cedo ainda para eu pensar desse modo, e talvez depois eu verdadeiramente botar a mão na massa”, descobrirei se verdadeiramente se me identifico mas com front ou back-end, ou os 2 mesmo. objetivo do módulo é capacitar lecionando para mercado de trabalho com os padrões atuais da web (Web Standard) e com a utilização do método Tableless para criação de páginas para net - XHTML e CSS - apartando a marcação e os dados (teor) da formatação, permitindo desta forma maior rapidez no carregamento dos sites e na modificação de seus layouts. determinante mesmo para este profissional é dominar dignidade e tendências do desenho para , dignidade de identidade visual, entendimento de padrões de cores, facilidade (UX e UI), do mesmo modo que, ferramentas de edição visual e, em pequeno número de projetos, edição de vídeo e criação de animações.
0 notes
lifetechweb · 2 months
Text
O LLM de código aberto mais poderoso até agora: Meta LLAMA 3.1-405B
Requisitos de memória para Llama 3.1-405B Executar o Llama 3.1-405B requer memória e recursos computacionais substanciais: Memória GPU: O modelo 405B pode utilizar até 80 GB de memória de GPU por GPU A100 para inferência eficiente. Usar o Tensor Parallelism pode distribuir a carga entre várias GPUs. BATER:É recomendado um mínimo de 512 GB de RAM do sistema para lidar com a pegada de memória do…
0 notes