Processo r

Multi tool use
|
Esta página ou secção cita fontes confiáveis e independentes, mas que não cobrem todo o conteúdo, o que compromete a verificabilidade (desde dezembro de 2012). Por favor, insira mais referências no texto. Material sem fontes poderá ser removido. —Encontre fontes: Google (notícias, livros e acadêmico)
|
|

Síntese de núcleos ricos em nêutrons, onde o número de massa A é superior a 60.
O processo r, citado também como processo R (de rápido), é um processo de captura neutrônica para elementos radiativos que se dá em condições de alta densidade neutrônica.[1] Está relacionado com os processos S e P. No processo R os núcleos são bombardeados por um elevado fluxo de nêutrons para criar núcleos muito instáveis com grande quantidade de nêutrons que decaem muito rapidamente para formar núcleos estáveis mas muito ricos em nêutrons.
Acredita-se que processo R se dá no núcleo de ferro das supernovas de colapso, onde se dão as condições físicas necessárias. Entretanto, a escassa abundância de elementos resultantes do processo R requer que, ou só uma pequena fração dos elementos criados por esta via são liberados ao exterior da supernova, ou que em cada supernova se formam pequenas quantidades de elementos por esta via.
Devido ao altíssimo fluxo neutrônico neste processo (da ordem de 1022 nêutrons por cm² por segundo), a velocidade de formação isotópica é muito maior que a de desintegração beta posterior, portanto os elementos criados por esta via sobem rapidamente pela linha de estabilidade N/Z, inclusive atravessando zonas de instabilidade, onde a energia de separação neutrônica é zero (neutron drip line). Os nêutrons se acumulam, criando novos isótopos até chegar à região onde A = 270 (zona do Rutherfórdio - Darmstádio), onde experimentam fissões espontâneas devido à instabilidade do núcleo formado.
Os picos de abundância de elementos mostram evidências da captura neutrônica rápida seguida de uma desintegração beta posterior, já que os picos de abundância do processo R estão 10 uma abaixo dos formados pelo processo S (onde se formam camadas concêntricas repletas de nêutrons), indicando que a subida pela linha N/Z dá lugar a camadas neutrônicas repletas com a suficiente deficiência protônica para facer os picos resolúveis.
Ver também |
- Processo p
- Processo rp
- Processo s
Referências
↑ Illingworth, Valerie (1994). The facts on file dictionary of astronomy (em inglês) 3rd ed. New York: Facts on File. p. 391. ISBN 0-8160-3184-3
Portal da física
c RtW,i jp uU QXNT2oDSDX,iep
Popular posts from this blog
0
I found a lot of questions abount appendices and ToC. Many users want appendices to be grouped in an Appendix part, however some problems arise with ToC, hyperref, PDF viewer bookmarks, and so on. There are different solutions which require extra packages, command patching and other extra code, however none of them satisfies me. I almost found an easy way to accomplish a good result, where appendices are added to bookmarks in the right way and hyperref links point to the right page. However, the number of the "Appendix" part page is wrong (it's the number of appendix A). Is there any EASY way to fix that? This is a MWE: documentclass{book} usepackage[nottoc,notlot,notlof]{tocbibind} usepackage{hyperref} begin{document} frontmatter tableofcontents mainmatter part{First} chapter{...
2
I've read in different places that it is done for "performance reasons", but I still wonder what are the particular cases where performance get improved by this 16-byte alignment. Or, in any case, what were the reasons why this was chosen. edit : I'm thinking I wrote the question in a misleading way. I wasn't asking about why the processor does things faster with 16-byte aligned memory, this is explained everywhere in the docs. What I wanted to know instead, is how the enforced 16-byte alignment is better than just letting the programmers align the stack themselves when needed. I'm asking this because from my experience with assembly, the stack enforcement has two problems: it is only useful by less 1% percent of the code that is executed (so in the other 99% is actually overhead); and...
0
I'm working on an Android app where the user has to use a camera view to scan a barcode. I've been using Firebase's ML-Kit barcode scanning utility to achieve the actual barcode recognition bit and it's been fantastic. There's only one issue - if given a photo with multiple barcodes in it, it commonly misses at least one of the barcodes. That's problematic because a lot of the barcodes that my users have to scan are on boxes/containers with multiple barcodes. Here's an example Pixel 2 XL box that may need to be scanned: The IMEI barcode in this picture is never picked up by ML-Kit. However; if I crop out everything else and just send the IMEI barcode through ML-Kit picks it up fine. Is there anything I can do to help ML-Kit pick up on all of the barcodes?
...