Artigos

1.2: Ingenuamente - Matemática


Comecemos falando informalmente sobre estruturas matemáticas e linguagens matemáticas.

Não há dúvida de que você trabalhou com modelos matemáticos em vários cursos anteriores de matemática, embora com toda a probabilidade isso não tenha sido mencionado a você na época. Por exemplo, se você fez um curso de álgebra linear, você tem alguma experiência com ( mathbb {R} ^ 2 ), ( mathbb {R} ^ 3 ) e ( mathbb {R} ^ n ) como exemplos de espaços vetoriais. Na geometria do ensino médio, você aprendeu que o plano é um "modelo" dos axiomas da geometria de Euclides. Talvez você tenha feito uma aula de álgebra abstrata, onde viu vários exemplos de grupos: Os inteiros sob adição, grupos de permutação e o grupo de matrizes invertíveis (n vezes n ) com a operação de multiplicação de matrizes são todos exemplos de grupos - eles são "modelos" dos axiomas de grupo. Todos esses são modelos matemáticos ou estruturas. Estruturas diferentes são usadas para finalidades diferentes.

Suponha que pensemos em uma estrutura matemática particular, por exemplo ( mathbb {R} ^ 3 ), a coleção de triplos ordenados de números reais. Se tentarmos fazer geometria euclidiana plana em ( mathbb {R} ^ 3 ), falharemos miseravelmente, pois (por exemplo) o postulado paralelo é falso nesta estrutura. Por outro lado, se quisermos fazer álgebra linear em ( mathbb {R} ^ 3 ), está tudo bem, pois podemos pensar nos pontos de ( mathbb {R} ^ 3 ) como vetores e que os escalares sejam números reais. Então, os axiomas para um espaço vetorial real são todos verdadeiros quando interpretados em ( mathbb {R} ^ 3 ). Diremos que ( mathbb {R} ^ 3 ) é um modelo dos axiomas para um espaço vetorial, enquanto não é um modelo para os axiomas de Euclides para a geometria.

Como você sem dúvida notou, nossa discussão introduziu dois tipos distintos de coisas para se preocupar. Primeiro, existem os modelos matemáticos, que você pode considerar como mundos ou construções matemáticas. Exemplos destes incluem ( mathbb {R} ^ 3 ), a coleção de polinômios de grau 17, o conjunto de matrizes 3x2 e a reta real. Também falamos sobre os axiomas da geometria e dos espaços vetoriais, e são algo diferente. Vamos discutir esses axiomas por um momento.

Apenas para fins de ilustração, vejamos alguns dos axiomas que afirmam que (V ) é um espaço vetorial real. Eles estão listados aqui tanto informalmente quanto em uma linguagem mais formal:

A adição de vetores é comutativa: ( left ( forall u in V right) left ( forall v in V right) u + v = v + u ).

Existe um vetor zero: ( left ( exists 0 in V right) left ( forall v in V right) v + 0 = v ).

Uma vez, qualquer coisa é ela mesma: ( left ( forall v in V right) 1v = v ).

Não se preocupe se a linguagem formal não for familiar para você neste momento; é suficiente notar que lá é uma linguagem formal. Mas deixe-nos apontar algumas coisas que você provavelmente aceitou sem questionar. O sinal de adição que está nos dois primeiros axiomas não é o mesmo sinal de adição que você estava usando quando aprendeu a somar na primeira série. Ou melhor, isso é o mesmo sinal, mas você interpretar esse sinal de forma diferente. Se o espaço vetorial em consideração for ( mathbb {R} ^ 3 ), você sabe que, no que diz respeito aos dois primeiros axiomas acima, adição é adição vetorial. Da mesma forma, o 0 no segundo axioma não é o número real 0; em vez disso, é o vetor zero. Além disso, a multiplicação no terceiro axioma que é indicada pela justaposição do 1 e do (v ) é a multiplicação escalar do espaço vetorial, não a multiplicação do terceiro grau.

Portanto, parece que temos que ser capazes de olhar para alguns símbolos em uma linguagem formal particular e, em seguida, pegar esses símbolos e relacioná-los de alguma forma com uma estrutura matemática. Diferentes interpretações dos símbolos levarão a diferentes conclusões no que diz respeito à verdade da declaração formal. Por exemplo, se tomarmos o axioma de comutividade acima e trabalharmos com o espaço (V ) sendo ( mathbb {R} ^ 3 ), mas interpretar o sinal (+ ) como representando produto vetorial em vez de adição vetorial , vemos que o axioma não é mais verdadeiro, pois o produto vetorial não é comutativo.

Esses, então, são nossos próximos objetivos: introduzir linguagens formais, dar uma definição oficial de uma estrutura matemática e discutir a verdade nessas estruturas. A beleza virá mais tarde.


1.2: Ingenuamente - Matemática

Palestrante Dr. Neil Donaldson
Escritório RH 472
Horário comercial MW 11--12 + 1--2
Email [email protected]
Horários da palestra MWF 10h SH 174

Assistente de ensino Kai-wei Zhao
Horários de discussão MW 9h HIB 110
Escritório / Horas RH 440V / Tu 2--3 + Th 2--4
Email [email protected]

Texto e plano de estudos do curso O curso cobre os pré-requisitos necessários para um estudo aprofundado do cálculo: cobrimos números, completude, sequências, prova, série e funções contínuas. Muitos desses tópicos foram introduzidos ingenuamente em Matemática 2A / B e tocados em Matemática 13: aqui nós provar tudo!

Texto do Curso Análise Elementar: A Teoria do Cálculo por Kenneth Ross
O livro é não obrigatório --- perguntas de dever de casa e notas serão digitadas e postadas na página de trabalho de casa --- embora o mesmo livro também cubra 140B, por isso é recomendado se você estiver fazendo essa aula.
Para um plano de estudos mais detalhado, incluindo seções cobertas por dia e avaliações, clique aqui

    será definido na maioria das semanas e coletado em discussão. Um dever de casa será descartado.
  • Seis questionários serão dados em aulas de discussão. Geralmente, eles presumem que conhecem a lição de casa enviada naquela semana. Um questionário será descartado. Trabalhos de casa e questionários geralmente ocorrem durante o quarta-feira discussão.
  • Meio do semestre: durante o horário normal de aula na sexta-feira, 1 de novembro
  • Exame final: na sala de aula habitual segunda-feira, 9 de dezembro, 10h30-12h30. O exame será abrangente.

Nas aulas de matemática, as decisões relativas a listas de espera, acréscimos, descartes e alterações de aprovação / não aprovação NÃO são feitas pelos instrutores. Consulte aqui para obter informações sobre como navegar no sistema. Essencialmente, você tem até o final da semana 2 para completar todas as adições, quedas e mudanças de nota, tudo isso feito online.


A Lei dos Grandes Números

Essa pergunta foi baseada em uma abordagem ingênua do jogo. O próximo, de 2000, é baseado na teoria da probabilidade. (As perguntas foram feitas em inglês imperfeito, que irei reafirmar como entendi, corrigindo uma interpretação errônea na versão arquivada. O Dr. TWE acertou.)

O Doutor TWE respondeu, cobrindo várias interpretações possíveis do & # 8220result & # 8221:

Verificando seu cálculo e, portanto, confirmando o que ele quis dizer, obtenho a probabilidade de rolar pelo menos um seis em três dados para ser o complemento de nenhum seis: ( displaystyle 1 & # 8211 frac <5 ^ 3> <6 ^ 3> = 42,1% ). Da próxima vez, vou discutir isso mais detalhadamente.

O Doutor TWE confirmou seu cálculo, então explicou o que esta lei significa, e não significa:

O importante aqui é que as coisas vão & # 8220médias & # 8221 no longo prazo, de modo que você obtenha pelo menos um 6 em 42,1% das jogadas, mas não porque a qualquer momento haja uma chance maior de compensar a média & # 8212 só acontece porque há muito tempo para isso. Não é porque os eventos passados ​​tenham qualquer efeito sobre os eventos futuros, alinhando-os com as & # 8220médias & # 8221.

Para mais informações sobre a Lei dos Grandes Números, consulte


Matemática para Topcoders

Tenho visto vários concorrentes reclamarem que estão em desvantagem injusta porque muitos problemas de topcoder são matemáticos demais. Pessoalmente, adoro matemática e, portanto, sou parcial nesta questão. No entanto, acredito fortemente que os problemas devem conter pelo menos um pouco de matemática, porque matemática e ciência da computação muitas vezes andam de mãos dadas. É difícil imaginar um mundo onde esses dois campos pudessem existir sem qualquer interação um com o outro. Hoje em dia, grande parte da matemática aplicada é realizada em computadores, como a solução de grandes sistemas de equações e a aproximação de soluções para equações diferenciais para as quais não existe uma fórmula fechada. A matemática é amplamente utilizada na pesquisa em ciência da computação, além de ser fortemente aplicada a algoritmos de gráficos e áreas de visão computacional.

Este artigo discute a teoria e a aplicação prática de alguns dos construtos matemáticos mais comuns. Os tópicos abordados são: primos, GCD, geometria básica, bases, frações e números complexos.

Primes

Um número é primo se só for divisível por 1 e ele mesmo. Então, por exemplo 2, 3, 5, 79, 311 e 1931 são todos primos, enquanto 21 não é primo porque é divisível por 3 e 7. Para descobrir se um número n é primo, poderíamos simplesmente verificar se ele divide quaisquer números abaixo isto. Podemos usar o operador módulo (%) para verificar a divisibilidade:

Podemos fazer esse código rodar mais rápido observando que só precisamos verificar a divisibilidade dos valores de i que são menores ou iguais à raiz quadrada de n (chame isso de m). Se n divide um número maior que m, o resultado dessa divisão será algum número menor que me, portanto, n também dividirá um número menor ou igual am. Outra otimização é perceber que não há primos pares maiores que 2. Depois de verificarmos que n não é par, podemos incrementar com segurança o valor de i em 2. Podemos agora escrever o método final para verificar se um número é primo :

Agora, suponha que quiséssemos encontrar todos os primos de 1 a 100.000, então teríamos que chamar o método acima 100.000 vezes. Isso seria muito ineficiente, pois estaríamos repetindo os mesmos cálculos indefinidamente. Nessa situação, é melhor usar um método conhecido como Peneira de Eratóstenes. A peneira de Eratóstenes gerará todos os primos de 2 a um determinado número n. Ele começa assumindo que todos os números são primos. Em seguida, ele pega o primeiro número primo e remove todos os seus múltiplos. Em seguida, aplica o mesmo método ao próximo número primo. Isso é continuado até que todos os números tenham sido processados. Por exemplo, considere encontrar primos no intervalo de 2 a 20. Começamos anotando todos os números:
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
2 é o primeiro primo. Agora, riscamos todos os seus múltiplos, ou seja, a cada segundo número:
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
O próximo número não riscado é 3 e, portanto, é o segundo primo. Risamos agora todos os múltiplos de 3, ou seja, cada terceiro número de 3:
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Todos os números restantes são primos e podemos encerrar o algoritmo com segurança. Abaixo está o código para a peneira:

No método acima, criamos uma matriz booleana primo que armazena a primalidade de cada número menor ou igual a n. Se primo [i] for verdadeiro, então o número i é primo. O loop externo encontra o próximo primo, enquanto o loop interno remove todos os múltiplos do primo atual.

O máximo divisor comum (GCD) de dois números aeb é o maior número que se divide igualmente em a e b. Ingenuamente, podemos começar a partir do menor dos dois números e trabalhar nosso caminho para baixo até encontrar um número que se divide em ambos:

Embora este método seja rápido o suficiente para a maioria das aplicações, existe um método mais rápido chamado algoritmo de Euclides. O algoritmo de Euclides itera sobre os dois números até que um resto de 0 seja encontrado. Por exemplo, suponha que queremos encontrar o GCD de 2336 e 1314. Começamos expressando o número maior (2336) em termos do número menor (1314) mais um resto:
2336 = 1314 x 1 + 1022
Agora fazemos o mesmo com 1314 e 1022:
1314 = 1022 x 1 + 292
Continuamos esse processo até chegarmos a um resto de 0:
1022 = 292 x 3 + 146
292 = 146 x 2 + 0
O último resto diferente de zero é o GCD. Portanto, o GCD de 2336 e 1314 é 146. Este algoritmo pode ser facilmente codificado como uma função recursiva:

Usando este algoritmo, podemos encontrar o menor múltiplo comum (LCM) de dois números. Por exemplo, o LCM de 6 e 9 é 18, pois 18 é o menor número que divide 6 e 9. Aqui está o código para o método LCM:

Como nota final, o algoritmo de Euclides pode ser usado para resolver equações diofantinas lineares. Essas equações têm coeficientes inteiros e têm a forma:
ax + by = c

Geometria

Ocasionalmente, os problemas nos pedem para encontrar a interseção dos retângulos. Existem várias maneiras de representar um retângulo. Para o plano cartesiano padrão, um método comum é armazenar as coordenadas dos cantos inferior esquerdo e superior direito.

Suponha que temos dois retângulos R1 e R2. Seja (x1, y1) o local do canto inferior esquerdo de R1 e (x2, y2) o local do canto superior direito. Da mesma forma, sejam (x3, y3) e (x4, y4) os respectivos locais de canto para R2. A interseção de R1 e R2 será um retângulo R3 cujo canto inferior esquerdo está em (max (x1, x3), max (y1, y3)) e canto superior direito em (min (x2, x4), min (y2 , y4)). Se max (x1, x3) & gt min (x2, x4) ou max (y1, y3) & gt min (y2, y4) então R3 não existe, ou seja, R1 e R2 não se cruzam. Este método pode ser estendido para a interseção em mais de 2 dimensões, como visto em CuboidJoin (SRM 191, Div 2 Hard).

Freqüentemente, temos que lidar com polígonos cujos vértices têm coordenadas inteiras. Esses polígonos são chamados de polígonos de rede. Em seu tutorial sobre conceitos de geometria, lbackstrom apresenta uma maneira simples de encontrar a área de um polígono de rede de acordo com seus vértices. Agora, suponha que não saibamos a posição exata dos vértices e, em vez disso, recebemos dois valores:
B = número de pontos da rede na fronteira do polígono
I = número de pontos da rede no interior do polígono
Surpreendentemente, a área deste polígono é então dada por:
Área = B / 2 + I - 1
A fórmula acima é chamada de Teorema de Pick devido a Georg Alexander Pick (1859 - 1943). A fim de mostrar que o teorema de Pick é válido para todos os polígonos de rede, temos que prová-lo em 4 partes separadas. Na primeira parte, mostramos que o teorema é válido para qualquer retângulo de rede (com lados paralelos ao eixo). Como um triângulo retângulo é simplesmente a metade de um retângulo, não é muito difícil mostrar que o teorema também é válido para qualquer triângulo retângulo (com lados paralelos ao eixo). A próxima etapa é considerar um triângulo geral, que pode ser representado como um retângulo com alguns triângulos retângulos recortados em seus cantos. Finalmente, podemos mostrar que se o teorema vale para quaisquer dois polígonos da rede que compartilham um lado comum, então também valerá para o polígono da rede, formado pela remoção do lado comum. Combinar o resultado anterior com o fato de que cada polígono simples é uma união de triângulos nos dá a versão final do Teorema de Pick. O teorema de Pick é útil quando precisamos encontrar o número de pontos da rede dentro de um grande polígono.

Outra fórmula que vale a pena lembrar é a Fórmula de Euler para redes poligonais. Uma rede poligonal é um polígono simples dividido em polígonos menores. Os polígonos menores são chamados de faces, os lados das faces são chamados de arestas e os vértices das faces são chamados de vértices. A fórmula de Euler então afirma:
V - E + F = 2, onde
V = número de vértices
E = número de arestas
F = número de faces
Por exemplo, considere um quadrado com ambas as diagonais desenhadas. Temos V = 5, E = 8 e F = 5 (o lado de fora do quadrado também é uma face) e, portanto, V - E + F = 2.

Podemos usar a indução para mostrar que a fórmula de Euler funciona. Devemos começar a indução com V = 2, uma vez que cada vértice deve estar em pelo menos uma aresta. Se V = 2, então há apenas um tipo de rede poligonal possível. Possui dois vértices conectados por E número de arestas. Esta rede poligonal tem E faces (E - 1 “no meio” e 1 “fora”). Portanto, V - E + F = 2 - E + E = 2. Presumimos agora que V - E + F = 2 é verdadeiro para todos os 2 & lt = V & lt = n. Seja V = n + 1. Escolha qualquer vértice w aleatoriamente. Agora, suponha que w esteja unido ao resto da rede por G arestas. Se removermos w e todas essas arestas, teremos uma rede com n vértices, E - G arestas e F - G + 1 faces. Partindo do nosso pressuposto, temos:
(n) - (E - G) + (F - G + 1) = 2
assim (n + 1) - E + F = 2
Como V = n + 1, temos V - E + F = 2. Portanto, pelo princípio da indução matemática, provamos a fórmula de Euler.

Bases

Um problema muito comum enfrentado por concorrentes topcoder durante desafios envolve a conversão de e para representações binárias e decimais (entre outras).

Então, o que a base do número realmente significa? Começaremos trabalhando na base padrão (decimal). Considere o número decimal 4325. 4325 representa 5 + 2 x 10 + 3 x 10 x 10 + 4 x 10 x 10 x 10. Observe que o "valor" de cada dígito consequente aumenta por um fator de 10 conforme avançamos da direita para a esquerda.

Os números binários funcionam de maneira semelhante. Eles são compostos apenas de 0 e 1 e o “valor” de cada dígito aumenta por um fator de 2 à medida que vamos da direita para a esquerda. Por exemplo, 1011 em binário significa 1 + 1 x 2 + 0 x 2 x 2 + 1 x 2 x 2 x 2 = 1 + 2 + 8 = 11 em decimal. Acabamos de converter um número binário em decimal. O mesmo se aplica a outras bases. Aqui está o código que converte um número n na base b (2 & lt = b & lt = 10) em um número decimal:

Os usuários de Java ficarão felizes em saber que o texto acima também pode ser escrito como:
return Integer. analisar Int (& quot & quot + n, b)
Converter de decimal em binário é igualmente fácil. Suponha que desejamos converter 43 de decimal em binário. Em cada etapa do método, dividimos 43 por 2 e memorizamos o restante. A lista final de restos é a representação binária necessária:
43/2 = 21 + resto 1
21/2 = 10 + resto 1
10/2 = 5 + resto 0
5/2 = 2 + resto 1
2/2 = 1 + resto 0
1/2 = 0 + resto 1
Portanto, 43 em decimal é 101011 em binário. Ao trocar todas as ocorrências de 10 por b em nosso método anterior, criamos uma função que converte de um número decimal n em um número na base b (2 & lt = b & lt = 10):

Se a base b estiver acima de 10, devemos usar caracteres não numéricos para representar dígitos com valor igual ou superior a 10. Podemos deixar 'A' representar 10, 'B' representar 11 e assim por diante. O código a seguir será convertido de um decimal para qualquer base (até a base 20):

Em Java, existem alguns atalhos úteis ao converter de decimal para outras representações comuns, como binário (base 2), octal (base 8) e hexadecimal (base 16):
Inteiro. para BinaryString (n)
Inteiro. para OctalString (n)
Inteiro. para HexString (n)

Frações e números complexos

Os números fracionários podem ser vistos em muitos problemas. Talvez o aspecto mais difícil de lidar com frações seja encontrar a maneira correta de representá-las. Embora seja possível criar uma classe de frações contendo os atributos e métodos necessários, para a maioria dos propósitos, é suficiente representar as frações como matrizes de 2 elementos (pares). A ideia é que armazenemos o numerador no primeiro elemento e o denominador no segundo elemento. Começaremos com a multiplicação de duas frações a e b:

Adicionar frações é um pouco mais complicado, pois apenas frações com o mesmo denominador podem ser adicionadas. Em primeiro lugar, devemos encontrar o denominador comum das duas frações e, em seguida, usar a multiplicação para transformar as frações de modo que ambas tenham o denominador comum como denominador. O denominador comum é um número que pode dividir os dois denominadores e é simplesmente o MMC (definido anteriormente) dos dois denominadores. Por exemplo, vamos adicionar 4/9 e 1/6. LCM de 9 e 6 é 18. Assim, para transformar a primeira fração, precisamos multiplicá-la por 2/2 e multiplicar a segunda por 3/3:
4 / 9 + 1 / 6 = ( 4 * 2 )/( 9 * 2 ) + ( 1 * 3 )/( 6 * 3 ) = 8 / 18 + 3 / 18
Uma vez que ambas as frações têm o mesmo denominador, simplesmente somamos os numeradores para obter a resposta final de 11/18. A subtração é muito semelhante, exceto que subtraímos na última etapa:
4 / 9 - 1 / 6 = 8 / 18 - 3 / 18 = 5 / 18
Aqui está o código para adicionar duas frações:

Finalmente, é útil saber como reduzir uma fração à sua forma mais simples. A forma mais simples de uma fração ocorre quando o GCD do numerador e denominador é igual a 1. Fazemos isso assim:

Usando uma abordagem semelhante, podemos representar outros números especiais, como números complexos. Em geral, um número complexo é um número na forma a + ib, onde a e b são reais ei é a raiz quadrada de -1. Por exemplo, para adicionar dois números complexos m = a + ib e n = c + id, simplesmente agrupamos os termos da mesma forma:
m + n
= (a + ib) + (c + id)
= (a + c) + i (b + d)
Multiplicar dois números complexos é o mesmo que multiplicar dois números reais, exceto que devemos usar o fato de que i ^ 2 = -1:
m * n
= (a + ib) * (c + id)
= ac + iad + ibc + (i ^ 2) bd
= (ac - bd) + i (ad + bc)
Ao armazenar a parte real no primeiro elemento e a parte complexa no segundo elemento da matriz de 2 elementos, podemos escrever o código que realiza a multiplicação acima:

Conclusão

Concluindo, gostaria de acrescentar que não se pode chegar ao topo das classificações do topcoder sem compreender as construções matemáticas e os algoritmos descritos neste artigo. Talvez um dos tópicos mais comuns em problemas matemáticos seja o tópico dos primos. Isso é seguido de perto pelo tópico de bases, provavelmente porque os computadores operam em binário e, portanto, é necessário saber como converter de binário para decimal. Os conceitos de GCD e LCM são comuns tanto em matemática pura quanto em problemas geométricos. Por fim, incluí o último tópico não tanto por sua utilidade em competições de topcoder, mas mais porque demonstra um meio de tratar certos números.


Conteúdo

O determinante é denotado por det ou pelas barras verticais ao redor da matriz. Por exemplo,

Editar primeiras propriedades

Isso é válido da mesma forma se as duas colunas forem iguais. Além disso,

Se as entradas da matriz forem números reais, a matriz A pode ser usada para representar dois mapas lineares: um que mapeia os vetores de base padrão para as linhas de A e outro que os mapeia para as colunas de A. Em ambos os casos, as imagens dos vetores de base formam um paralelogramo que representa a imagem do quadrado da unidade sob o mapeamento. O paralelogramo definido pelas linhas da matriz acima é aquele com vértices em (0, 0), (uma, b) , (uma + c, b + d) , e (c, d), conforme mostrado no diagrama anexo.

O valor absoluto de de Anúnciosac é a área do paralelogramo e, portanto, representa o fator de escala pelo qual as áreas são transformadas por A. (O paralelogramo formado pelas colunas de A é em geral um paralelogramo diferente, mas como o determinante é simétrico em relação às linhas e colunas, a área será a mesma.)

O valor absoluto do determinante junto com o sinal torna-se o área orientada do paralelogramo. A área orientada é a mesma que a área usual, exceto que é negativa quando o ângulo do primeiro para o segundo vetor que define o paralelogramo gira no sentido horário (que é oposto à direção que se obteria para a matriz de identidade).

Para mostrar isso de Anúnciosac é a área sinalizada, pode-se considerar uma matriz contendo dois vetores você ≡ (uma, b) e v ≡ (c, d) representando os lados do paralelogramo. A área sinalizada pode ser expressa como |você| |v| pecado θ para o ângulo θ entre os vetores, que é simplesmente base vezes altura, o comprimento de um vetor vezes a componente perpendicular do outro. Devido ao seno, esta já é a área sinalizada, embora possa ser expressa de forma mais conveniente usando o cosseno do ângulo complementar a um vetor perpendicular, e. você ⊥ = (−b, uma), de modo que |você ⊥ | |v| cos θ ′ , que pode ser determinado pelo padrão do produto escalar para ser igual a de Anúnciosac :

Assim, o determinante fornece o fator de escala e a orientação induzida pelo mapeamento representado por UMA. Quando o determinante é igual a um, o mapeamento linear definido pela matriz é equiareal e preserva a orientação.

O objeto conhecido como bivetor está relacionado a essas idéias. Em 2D, pode ser interpretado como um segmento de plano orientado formado imaginando dois vetores, cada um com origem (0, 0) e coordenadas (uma, b) e (c, d) A magnitude do bivetor (denotada por (uma, b) ∧ (c, d) ) é o área assinada, que também é o determinante de Anúnciosac . [2]

O determinante dá o sinal nvolume dimensional deste paralelotopo, det (A) = ± vol (P), < displaystyle det (A) = pm < text> (P),> e, portanto, descreve de forma mais geral o nfator de escala de volume dimensional da transformação linear produzida por UMA. [3] (O sinal mostra se a transformação preserva ou inverte a orientação.) Em particular, se o determinante é zero, então este paralelotopo tem volume zero e não é totalmente n-dimensional, o que indica que a dimensão da imagem de UMA é menos do que n. Isso significa que UMA produz uma transformação linear que não ocorre em nem um a um e, portanto, não é invertível.

Na sequência, UMA é uma matriz quadrada com n filas e n colunas, para que possa ser escrito como

O determinante de UMA é denotado por det (UMA), ou pode ser denotado diretamente em termos das entradas da matriz, escrevendo-se barras em vez de colchetes:

Existem várias maneiras equivalentes de definir o determinante de uma matriz quadrada UMA, ou seja, um com o mesmo número de linhas e colunas: o determinante pode ser definido por meio da fórmula de Leibniz, uma fórmula explícita envolvendo somas de produtos de certas entradas da matriz. O determinante também pode ser caracterizado como a função única dependendo das entradas da matriz que satisfazem certas propriedades. Essa abordagem também pode ser usada para calcular determinantes, simplificando as matrizes em questão.

Fórmula de Leibniz Editar

O Fórmula de Leibniz para o determinante de uma matriz 3 × 3 é o seguinte:

A regra de Sarrus é um mnemônico para esta fórmula: a soma dos produtos de três linhas diagonais de noroeste a sudeste dos elementos da matriz, menos a soma dos produtos de três linhas diagonais de sudoeste a nordeste dos elementos , quando as cópias das duas primeiras colunas da matriz são escritas ao lado dela, como na ilustração:

Este esquema para calcular o determinante de uma matriz 3 × 3 não é transportado para dimensões superiores.

N × n matrizes Editar

também é escrito mais brevemente usando a notação Pi como

Usando essas noções, a definição do determinante usando a fórmula de Leibniz é então

uma soma envolvendo todas as permutações, onde cada soma é um produto das entradas da matriz, multiplicada por um sinal dependendo da permutação.

A soma dos seis termos na terceira coluna lê-se então

Isso retorna a fórmula acima, pois o símbolo de Levi-Civita é zero se os índices i 1,…, i n < displaystyle i_ <1>, dots, i_> não formam uma permutação. [4] [5]

Caracterização do determinante Editar

O determinante pode ser caracterizado pelas três propriedades principais a seguir. Para afirmar isso, é conveniente considerar uma matriz n × n < displaystyle n times n> -matriz UMA como sendo composto por suas n < displaystyle n> colunas, então denotado como

  1. det (I) = 1 < displaystyle det left (I right) = 1>, onde I < displaystyle I> é uma matriz de identidade.
  2. O determinante é multilinear: se o ja coluna de uma matriz A < displaystyle A> é escrita como uma combinação linear a j = r ⋅ v + w < displaystyle a_= r cdot v + w> de dois vetores de colunav e C e um número r, então o determinante de UMA é exprimível como uma combinação linear semelhante: | A | = | a 1,…, a j - 1, r ⋅ v + w, a j + 1,…, a n | = r ⋅ | a 1,…, v,… a n | + | a 1,…, w,…, a n | < displaystyle < begin| A | & amp = < big |> a_ <1>, dots, a_, r cdot v + w, a_, dots, a_| & amp = r cdot | a_ <1>, dots, v, dots a_| + | a_ <1>, dots, w, dots, a_| end>>
  3. O determinante é alternando: sempre que duas colunas de uma matriz são idênticas, seu determinante é 0: | a 1,…, v,…, v,…, a n | = 0. < displaystyle | a_ <1>, dots, v, dots, v, dots, a_|=0.>

Se o determinante é definido usando a fórmula de Leibniz como acima, essas três propriedades podem ser provadas por inspeção direta dessa fórmula. Alguns autores também abordam o determinante diretamente usando essas três propriedades: pode ser mostrado que há exatamente uma função que atribui a qualquer n × n < displaystyle n times n> -matriz UMA um número que satisfaça essas três propriedades. [6] Isso também mostra que essa abordagem mais abstrata para o determinante produz a mesma definição que aquela que usa a fórmula de Leibniz.

Para ver isso, basta expandir o determinante por multilinearidade nas colunas em uma (enorme) combinação linear de determinantes de matrizes em que cada coluna é um vetor de base padrão. Esses determinantes são 0 (pela propriedade 9) ou então ± 1 (pelas propriedades 1 e 12 abaixo), então a combinação linear fornece a expressão acima em termos do símbolo de Levi-Civita. Embora menos técnica na aparência, essa caracterização não pode substituir inteiramente a fórmula de Leibniz na definição do determinante, uma vez que sem ela a existência de uma função apropriada não é clara. [ citação necessária ]

Consequências imediatas Editar

Essas regras têm várias outras consequências:

  • O determinante é uma função homogênea, ou seja,
  • Intercambiar qualquer par de colunas de uma matriz multiplica seu determinante por -1. Isso segue do determinante sendo multilinear e alternado (propriedades 2 e 3 acima):
  • Se alguma coluna pode ser expressa como uma combinação linear do outro colunas (ou seja, as colunas da matriz formam um conjunto linearmente dependente), o determinante é 0. Como um caso especial, isso inclui: se alguma coluna é tal que todas as suas entradas são zero, então o determinante dessa matriz é 0.
  • Adicionando um múltiplo escalar de uma coluna a outro coluna não altera o valor do determinante. Isso é conseqüência da multilinearidade e do ser alternativo: pela multilinearidade o determinante muda por um múltiplo do determinante de uma matriz com duas colunas iguais, cujo determinante é 0, já que o determinante está se alternando.
  • Se A < displaystyle A> for uma matriz triangular, ou seja, a i j = 0 < displaystyle a_= 0>, sempre que i & gt j < displaystyle i & gtj> ou, alternativamente, sempre que i & lt j < displaystyle i & ltj>, seu determinante é igual ao produto das entradas diagonais:

Edição de exemplo

Essas propriedades de caracterização e suas consequências listadas acima são ambas teoricamente significativas, mas também podem ser usadas para calcular determinantes para matrizes concretas. Na verdade, a eliminação gaussiana pode ser aplicada para trazer qualquer matriz para a forma triangular superior, e as etapas neste algoritmo afetam o determinante de uma forma controlada. O seguinte exemplo concreto ilustra o cálculo do determinante da matriz A < displaystyle A> usando esse método:

adicione a segunda coluna à primeira

adicione 3 vezes a terceira coluna à segunda

troque as duas primeiras colunas

A combinação dessas igualdades resulta em | A | = - | E | = - 18 ⋅ 3 ⋅ (- 1) = 54.

Transpor Editar

Isso pode ser comprovado inspecionando a fórmula de Leibniz. [7] Isso implica que em todas as propriedades mencionadas acima, a palavra "coluna" pode ser substituída por "linha". Por exemplo, vendo um n × n matriz como sendo composta por n linhas, o determinante é um n-Função linear.

Multiplicatividade e grupos de matriz Editar

Assim, o determinante é um mapa multiplicativo, ou seja, para matrizes quadradas A < displaystyle A> e B < displaystyle B> de tamanho igual, o determinante de um produto de matriz é igual ao produto de seus determinantes:

det (A B) = det (A) det (B)

Em particular, produtos e inversos de matrizes com determinante diferente de zero (respectivamente, determinante um) ainda possuem essa propriedade. Assim, o conjunto de tais matrizes (de tamanho fixo n < displaystyle n>) forma um grupo conhecido como grupo linear geral GL n < displaystyle operatorname _> (respectivamente, um subgrupo denominado grupo linear especial SL n ⊂ GL n < displaystyle operatorname _ subset operatorname _>. De maneira mais geral, a palavra "especial" indica o subgrupo de outro grupo de matrizes de um determinante. Os exemplos incluem o grupo ortogonal especial (que se n é 2 ou 3 consiste em todas as matrizes de rotação), e o grupo unitário especial.

The Cauchy–Binet formula is a generalization of that product formula for rectangular matrices. This formula can also be recast as a multiplicative formula for compound matrices whose entries are the determinants of all quadratic submatrices of a given matrix. [9] [10]

Laplace expansion Edit

which is called the Laplace expansion along the i th row. For example, the Laplace expansion along the first row ( i = 1 ) gives the following formula:

Laplace expansion can be used iteratively for computing determinants, but this approach is inefficient for large matrices. However, it is useful for computing the determinants of highly symmetric matrix such as the Vandermonde matrix

This determinant has been applied, for example, in the proof of Baker's theorem in the theory of transcendental numbers.

Adjugate matrix Edit

Thus the adjugate matrix can be used for expressing the inverse of a nonsingular matrix:

Block matrices Edit

If the blocks are square matrices of the same size further formulas hold. For example, if C and D commute (i.e., C D = D C ), then there holds [13]

Sylvester's determinant theorem Edit

Sylvester's determinant theorem states that for UMA, an m × n matrix, and B, an n × m matrix (so that UMA e B have dimensions allowing them to be multiplied in either order forming a square matrix):

Onde eum e eun are the m × m e n × n identity matrices, respectively.

From this general result several consequences follow.

  1. For the case of column vector c and row vector r, each with m components, the formula allows quick calculation of the determinant of a matrix that differs from the identity matrix by a matrix of rank 1: det ( I m + c r ) = 1 + r c . >+cr ight)=1+rc.>
  2. More generally, [15] for any invertible m × m matriz X, det ( X + A B ) = det ( X ) det ( I n + B X − 1 A ) , >+BX^<-1>A ight),>
  3. For a column and row vector as above: det ( X + c r ) = det ( X ) det ( 1 + r X − 1 c ) = det ( X ) + r adj ⁡ ( X ) c . c ight)=det(X)+r,operatorname (X),c.>
  4. For square matrices A and B of the same size, the matrices A B and B A have the same characteristic polynomials (hence the same eigenvalues).

Sum Edit

Eigenvalues and characteristic polynomial Edit

The determinant is closely related to two other central concepts in linear algebra, the eigenvalues and the characteristic polynomial of a matrix. Let A be an n × n -matrix with complex entries with eigenvalues λ 1 , λ 2 , … , λ n ,lambda _<2>,ldots ,lambda _> . (Here it is understood that an eigenvalue with algebraic multiplicity μ occurs μ times in this list.) Then the determinant of A is the product of all eigenvalues,

The product of all non-zero eigenvalues is referred to as pseudo-determinant.

The characteristic polynomial is defined as [18]

A Hermitian matrix is positive definite if all its eigenvalues are positive. Sylvester's criterion asserts that this is equivalent to the determinants of the submatrices

Trace Edit

The trace tr(UMA) is by definition the sum of the diagonal entries of A and also equals the sum of the eigenvalues. Thus, for complex matrices A ,

Here exp( A ) denotes the matrix exponential of A , because every eigenvalue λ of A corresponds to the eigenvalue exp( λ ) of exp( A ). In particular, given any logarithm of A , that is, any matrix L satisfying

the determinant of A is given by

For example, for n = 2 , n = 3 , and n = 4 , respectively,

cf. Cayley-Hamilton theorem. Such expressions are deducible from combinatorial arguments, Newton's identities, or the Faddeev–LeVerrier algorithm. That is, for generic n , detUMA = (−1) n c0 the signed constant term of the characteristic polynomial, determined recursively from

c n = 1 c n − m = − 1 m ∑ k = 1 m c n − m + k tr ⁡ ( A k ) ( 1 ≤ m ≤ n ) . =1

In the general case, this may also be obtained from [20]

where the sum is taken over the set of all integers kl ≥ 0 satisfying the equation

The formula can be expressed in terms of the complete exponential Bell polynomial of n arguments sl = −(l – 1)! tr(UMA l ) as

This formula can also be used to find the determinant of a matrix A I J with multidimensional indices eu = (i1, i2,. eur) e J = (j1, j2,. jr) . The product and trace of such matrices are defined in a natural way as

An important arbitrary dimension n identity can be obtained from the Mercator series expansion of the logarithm when the expansion converges. If every eigenvalue of UMA is less than 1 in absolute value,

Onde eu is the identity matrix. More generally, if

is expanded as a formal power series in s then all coefficients of s m for m & gt n are zero and the remaining polynomial is det(eu + sA) .

Upper and lower bounds Edit

For a positive definite matrix UMA , the trace operator gives the following tight lower and upper bounds on the log determinant

with equality if and only if UMA = eu . This relationship can be derived via the formula for the KL-divergence between two multivariate normal distributions.

These inequalities can be proved by bringing the matrix UMA to the diagonal form. As such, they represent the well-known fact that the harmonic mean is less than the geometric mean, which is less than the arithmetic mean, which is, in turn, less than the root mean square.

Derivative Edit

By the Leibniz formula shows that the determinant of real (or analogously for complex) square matrices is a polynomial function from R n × n ^> to R > . In particular, it is everywhere differentiable. Its derivative can be expressed using Jacobi's formula: [21]

Expressed in terms of the entries of A , these are

Yet another equivalent formulation is

Historically, determinants were used long before matrices: A determinant was originally defined as a property of a system of linear equations. The determinant "determines" whether the system has a unique solution (which occurs precisely if the determinant is non-zero). In this sense, determinants were first used in the Chinese mathematics textbook The Nine Chapters on the Mathematical Art (九章算術, Chinese scholars, around the 3rd century BCE). In Europe, solutions of linear systems of two equations were expressed by Cardano in 1545 by a determinant-like entity. [22]

Determinants proper originated from the work of Seki Takakazu in 1683 in Japan and parallely of Leibniz in 1693. [23] [24] [25] [26] Cramer (1750) stated, without proof, Cramer's rule. [27] Both Cramer and also Bezout (1779) were led to determinants by the question of plane curves passing through a given set of points. [28]

Vandermonde (1771) first recognized determinants as independent functions. [24] Laplace (1772) gave the general method of expanding a determinant in terms of its complementary minors: Vandermonde had already given a special case. [29] Immediately following, Lagrange (1773) treated determinants of the second and third order and applied it to questions of elimination theory he proved many special cases of general identities.

Gauss (1801) made the next advance. Like Lagrange, he made much use of determinants in the theory of numbers. He introduced the word "determinant" (Laplace had used "resultant"), though not in the present signification, but rather as applied to the discriminant of a quantic. [30] Gauss also arrived at the notion of reciprocal (inverse) determinants, and came very near the multiplication theorem.

The next contributor of importance is Binet (1811, 1812), who formally stated the theorem relating to the product of two matrices of m columns and n rows, which for the special case of m = n reduces to the multiplication theorem. On the same day (November 30, 1812) that Binet presented his paper to the Academy, Cauchy also presented one on the subject. (See Cauchy–Binet formula.) In this he used the word "determinant" in its present sense, [31] [32] summarized and simplified what was then known on the subject, improved the notation, and gave the multiplication theorem with a proof more satisfactory than Binet's. [24] [33] With him begins the theory in its generality.

(Jacobi 1841) used the functional determinant which Sylvester later called the Jacobian. [34] In his memoirs in Crelle's Journal for 1841 he specially treats this subject, as well as the class of alternating functions which Sylvester has called alternants. About the time of Jacobi's last memoirs, Sylvester (1839) and Cayley began their work. Cayley 1841 introduced the modern notation for the determinant using vertical bars. [35] [36]

The study of special forms of determinants has been the natural result of the completion of the general theory. Axisymmetric determinants have been studied by Lebesgue, Hesse, and Sylvester persymmetric determinants by Sylvester and Hankel circulants by Catalan, Spottiswoode, Glaisher, and Scott skew determinants and Pfaffians, in connection with the theory of orthogonal transformation, by Cayley continuants by Sylvester Wronskians (so called by Muir) by Christoffel and Frobenius compound determinants by Sylvester, Reiss, and Picquet Jacobians and Hessians by Sylvester and symmetric gauche determinants by Trudi. Of the textbooks on the subject Spottiswoode's was the first. In America, Hanus (1886), Weld (1893), and Muir/Metzler (1933) published treatises.

Cramer's rule Edit

Linear independence Edit

Orientation of a basis Edit

The determinant can be thought of as assigning a number to every sequence of n vectors in R n , by using the square matrix whose columns are the given vectors. For instance, an orthogonal matrix with entries in R n represents an orthonormal basis in Euclidean space. The determinant of such a matrix determines whether the orientation of the basis is consistent with or opposite to the orientation of the standard basis. If the determinant is +1, the basis has the same orientation. If it is −1, the basis has the opposite orientation.

More generally, if the determinant of UMA is positive, UMA represents an orientation-preserving linear transformation (if UMA is an orthogonal 2 × 2 or 3 × 3 matrix, this is a rotation), while if it is negative, UMA switches the orientation of the basis.

Volume and Jacobian determinant Edit

For a general differentiable function, much of the above carries over by considering the Jacobian matrix of f. Para

the Jacobian matrix is the n × n matrix whose entries are given by the partial derivatives

Its determinant, the Jacobian determinant, appears in the higher-dimensional version of integration by substitution: for suitable functions f and an open subset você of R n (the domain of f), the integral over f(você) of some other function φ : R nR m É dado por

The Jacobian also occurs in the inverse function theorem.

Determinant of an endomorphism Edit

The above identities concerning the determinant of products and inverses of matrices imply that similar matrices have the same determinant: two matrices UMA e B are similar, if there exists an invertible matrix X such that UMA = X −1 BX . Indeed, repeatedly applying the above identities yields

The determinant is therefore also called a similarity invariant. The determinant of a linear transformation

for some finite-dimensional vector space V is defined to be the determinant of the matrix describing it, with respect to an arbitrary choice of basis in V. By the similarity invariance, this determinant is independent of the choice of the basis for V and therefore only depends on the endomorphism T.

Square matrices over commutative rings Edit

The above definition of the determinant using the Leibniz rule holds works more generally when the entries of the matrix are elements of a commutative ring R , such as the integers Z > , as opposed to the field of real or complex numbers. Moreover, the characterization of the determinant as the unique alternating multilinear map that satisfies det ⁡ ( I ) = 1 (I)=1> still holds, as do all the properties that result from that characterization. [41]

The determinant being multiplicative, it defines a group homomorphism

holds. In other words, the displayed commutative diagram commutes.

For example, the determinant of the complex conjugate of a complex matrix (which is also the determinant of its conjugate transpose) is the complex conjugate of its determinant, and for integer matrices: the reduction modulo m of the determinant of such a matrix is equal to the determinant of the matrix reduced modulo m (the latter determinant being computed using modular arithmetic). In the language of category theory, the determinant is a natural transformation between the two functors GL n _> and ( − ) × > . [43] Adding yet another layer of abstraction, this is captured by saying that the determinant is a morphism of algebraic groups, from the general linear group to the multiplicative group,

Exterior algebra Edit

Determinants as treated above admit several variants: the permanent of a matrix is defined as the determinant, except that the factors sgn ⁡ ( σ ) (sigma )> occurring in Leibniz's rule are omitted. The immanant generalizes both by introducing a character of the symmetric group S n > in Leibniz's rule.

Determinants for finite-dimensional algebras Edit

This definition proceeds by establishing the characteristic polynomial independently of the determinant, and defining the determinant as the lowest order term of this polynomial. This general definition recovers the determinant for the matrix algebra A = Mat n × n ⁡ ( F ) _(F)> , but also includes several further cases including the determinant of a quaternion,

the norm [ disambiguation needed ] N L / F : L → F :L o F> of a field extension, as well as the Pfaffian of a skew-symmetric matrix and the reduced norm of a central simple algebra, also arise as special cases of this construction.

Infinite matrices Edit

For matrices with an infinite number of rows and columns, the above definitions of the determinant do not carry over directly. For example, in the Leibniz formula, an infinite sum (all of whose terms are infinite products) would have to be calculated. Functional analysis provides different extensions of the determinant for such infinite-dimensional situations, which however only work for particular kinds of operators.

The Fredholm determinant defines the determinant for operators known as trace class operators by an appropriate generalization of the formula

Another infinite-dimensional notion of determinant is the functional determinant.

Operators in von Neumann algebras Edit

For operators in a finite factor, one may define a positive real-valued determinant called the Fuglede−Kadison determinant using the canonical trace. In fact, corresponding to every tracial state on a von Neumann algebra there is a notion of Fuglede−Kadison determinant.

Related notions for non-commutative rings Edit

For matrices over non-commutative rings, multilinearity and alternating properties are incompatible for n ≥ 2 , [47] so there is no good definition of the determinant in this setting.

For square matrices with entries in a non-commutative ring, there are various difficulties in defining determinants analogously to that for commutative rings. A meaning can be given to the Leibniz formula provided that the order for the product is specified, and similarly for other definitions of the determinant, but non-commutativity then leads to the loss of many fundamental properties of the determinant, such as the multiplicative property or that the determinant is unchanged under transposition of the matrix. Over non-commutative rings, there is no reasonable notion of a multilinear form (existence of a nonzero bilinear form [ clarify ] with a regular element of R as value on some pair of arguments implies that R is commutative). Nevertheless, various notions of non-commutative determinant have been formulated that preserve some of the properties of determinants, notably quasideterminants and the Dieudonné determinant. For some classes of matrices with non-commutative elements, one can define the determinant and prove linear algebra theorems that are very similar to their commutative analogs. Examples include the q-determinant on quantum groups, the Capelli determinant on Capelli matrices, and the Berezinian on supermatrices (i.e., matrices whose entries are elements of Z 2 _<2>> -graded rings). [48] Manin matrices form the class closest to matrices with commutative elements.

Determinants are mainly used as a theoretical tool. They are rarely calculated explicitly in numerical linear algebra, where for applications like checking invertibility and finding eigenvalues the determinant has largely been supplanted by other techniques. [49] Computational geometry, however, does frequently use calculations related to determinants. [50]

Decomposition methods Edit

For example, LU decomposition expresses A as a product

det ( A ) = ε det ( L ) ⋅ det ( U ) .

Further methods Edit

In addition to the complexity of the algorithm, further criteria can be used to compare algorithms. Especially for applications concerning matrices over rings, algorithms that compute the determinant without any divisions exist. (By contrast, Gauss elimination requires divisions.) One such algorithm, having complexity O ⁡ ( n 4 ) (n^<4>)> is based on the following idea: one replaces permutations (as in the Leibniz rule) by so-called closed ordered walks, in which several items can be repeated. The resulting sum has more terms than in the Leibniz rule, but in the process several of these products can be reused, making it more efficient than naively computing with the Leibniz rule. [53] Algorithms can also be assessed according to their bit complexity, i.e., how many bits of accuracy are needed to store intermediate values occurring in the computation. For example, the Gaussian elimination (or LU decomposition) method is of order O ⁡ ( n 3 ) (n^<3>)> , but the bit length of intermediate values can become exponentially long. [54] By comparison, the Bareiss Algorithm, is an exact-division method (so it does use division, but only in cases where these divisions can be performed without remainder) is of the same order, but the bit complexity is roughly the bit size of the original entries in the matrix times n . [55]

If the determinant of UMA and the inverse of UMA have already been computed, the matrix determinant lemma allows rapid calculation of the determinant of UMA + uv T , where você e v are column vectors.


There Is No Such Thing as ‘White’ Math

JackGarner March 5, 2021 at 8:05 pm

Thank you all at Winter Watch for allowing me to Vent, for understanding my Passion for US. Please bear with me, as I have much to say.

Wow, it now appears that anything difficult to learn and/or has any normal challenge to at all, it is deemed systematic white racism by “The Great Awokening”. Supposing waking up for the Awoke every morning is sometimes hard, too so maybe the Awoke should just permanently sleep-in, and we Patriotic Americans will take care of the rest of US.

Complaining, Executive-level Public Corruption, and it’s easy way out (Crime) have now Cocktailed unclean hands on a large enough scale to have created its own Economy, separate from US/Ours. It was all clearly staged and put into play by the Democrat Party Leadership’s Clandestine Political Arena – Their Deep State. Though, none of US wanted or want to see any violence, “The Great Awokening and Democrat Party Leadership” are, without question, intentionally inciting violence, trying desperately to make it happen, just like a False-Flag Op to gain the necessary public support to maintain Absolute Power for Communist-China’s next move, via JOETUS.

Never mind US, Right! It’s just Common Sense 101 (God’s Gravity), and the S is about to HTF. Sad, but true. Never thought I’d see these days, but they are clearly upon US All.

My 31-year career as a private contractor was filled with Great Respect for FBI and our US Intelligence Community, and there is absolutely no shortage of evidence to prove it. As for now, our Country needs the FBI and our Intelligence Community more than ever before. So they had better Cocktail-Up for US American Citizens, and once and for All, stop this living-breathing-metastasizing Democrat Party Leadership Deep-State Coup deTat’ of our US Government, of our Country, of US All. Our FBI and Intelligence Community swore to defend our Constitutional Rights against Enemies, Both Foreign and Domestic. And so far, None of US are giving up our Constitutional Rights as US Citizens to JOETUS, the Democrat Party Leadership, or to their Deep-State.

I have seen and survived much in my over 60 years of life, and have always worked the right side of the fence, never the Dark-Side I will go to my grave in knowing so. And, FBI and some in the Intelligence Community know it. I started losing trust in FBI when in 2009, they admonished me, and now I know why (for getting far too close to exposing the Clintons-Obama-Joe Biden). None of US Patriotic Americans want any violence at all, as we entrusted in our FBI and Intelligence Community to protect US from it. Nor did any of US True Trump Supporters, paying close attention to his end message of Transparency, Truth and Justice, want any violence. Nor do I – in any way – have any intent to incite any violence, never have, and never will.

On another note, with the exception of a few Heroic FBI Agents still on the job, most of the FBI I knew of years ago have retired, many because they served their time well and saw what was coming in 2008 – those Agents were and still are Good Men and Women. They honored their Service Commitments and Protected US Well. As for the rest of you newer Agents, please remember what you stand for. This should make some sense to you As my Father, the Colonel once told me at the young age of 10 (just after a 4-year old Muslim boy was sacrificed and another Good, Decent Moderate-Muslim Friend was Murdered in front of US 12 Americans being held hostage in the Middle-East for 4 hours that day), “Son, pull yourself up by your bootstraps, know we love you, and you’re going to be alright, as long as you get up and move forward with me again. Walk with me, Son. We’re here for a reason – these people need our help.” We 12 Americans physically fought off terrorists that day and the US Navy Sixth Fleet and US Marines aboard that 1969 Med-Flotilla backed up the 4 Israeli-Trained Commandos who saved US.

What say you FBI, our Intelligence Community? Who do you Serve & Protect? As long as you do what it Right and Just, we will always support you. Keeping you All in Prayer, as well, and let God’s Gravity handle the rest.

The Evergreen State College -BLM problem like.( BLM members were pissed off when Soros didn’t pay them as he said he would , for them to make a huge mess…)
Here the aim is to make stupid average people easy to tell what to do and what to think, plus making people watch this while they buy guillotines or do anything else that they do not want us to notice.


Physics Buzz

An interwebs firestorm has been raging recently about a Numberphile video that makes the astounding claim that if you add up all the positive whole numbers from one to infinity, the result will be -1/12. To write it out more concisely

1+2+3+4+ . . . = -1/12 , (where the three dots indicate all the rest of the positive numbers up to infinity)

If you haven't seen the video, take a look - it's short.


Renowned science writer and astronomer Phil Plait (Bad Astronomy) blogged about the video recently, calling it "simply the most astonishing math you'll ever see." The post led to a Twitter and comment storm, fueled both by people bowled over by the calculation and a much larger number of people convinced it was nothing short of mathematical fraud.The passionate response he got to his post led Plait to write a follow up piece, partly in self defense, and partly as penance for his various mathematical sins as pointed out by his readers.

Clearly, only a fool would consider defending this absurd calculation after the reception Plait got.

I'm not going to follow Plait's example of trying to explain the math that goes into the calculation. But I will point out that many of the problems that commenters and Twitterers latched onto are irrelevant if you look at the more elaborate discussion in the Numberphile's extra footage. In the much longer second video, they come to the same reviled result as in the first video, except that they use an approach first written down by Leonhard Euler.

If you dislike the initial video, you really should watch this one to see if it sways you at all.

That's much better, isn't it? I'm sure it's not perfect, but the flaws are beyond my mathematical abilities to recognize.

In any case I'm willing to believe 1+2+3+4+ . . . = -1/12 is a mathematically legitimate thing to write down for the following three reasons.

1. Euler, who was one of the greatest mathematicians of all time, proved the equation for real numbers.

2. Another great mathematician, Bernhard Riemann, generalized Euler's approach to include complex numbers, and came up with the same equation.

3. My favorite mathematician, the self-taught genius Srinivasa Ramanujan, rediscovered the equation and stood by it, even though he realized that he might be thought be mad for making the claim, writing in a letter to mathematician G.H. Hardy, "I told him that the sum of an infinite number of terms of the series: 1 + 2 + 3 + 4 + · · · = 𕒵/12 under my theory. If I tell you this you will at once point out to me the lunatic asylum as my goal."

So, counting the Numberphiles' somewhat dubious derivation, there are at least four ways to prove that the sum of all the positive integers equals -1/12. And as far as I know, there's no way to prove that it doesn't equal -1/12.*

If you don't believe any of these people, then there's nothing I can do, mathematically speaking, to change your mind. I mean these guys are among the greatest. What could I add that would improve on their proofs?

But, Obviously 1+2+3+4+ . . . = -1/12 Doesn't Really Mean Anything - Right?

Of the mathematicians and physicists I've talked to about it, several of them are willing to accept that it's possible to derive the equation, but insist that it's meaningless. They tell me, if I understand them correctly, that it's some sort of numeric fluke that can't possibly have any consequences in the real world. There's just no way to add positive numbers together get a negative result in reality, especially when the numbers you're adding are getting larger and larger. In effect, it's nothing more than an artifact that results from a method that makes sense when applied to complex variables or other series, but not for the sum of positive integers. To think otherwise would be nuts, right?

The problem is, they're wrong (or so a number of physicists have told me). The equation 1+2+3+4+ . . . = -1/12 is vital for describing the real world.

As the Numberphile people point out, the dreaded equation pops up in many places in physics. They specifically note it's appearance in a string theory textbook (see page 22 in this Google book). But that's only one example and, depending on how you feel about string theory, among the least convincing ones. What's much more compelling is the fact that this sort of equation is integral to Quantum Electrodynamics (QED).

QED is the theory that explains the interaction between charged particles like electrons and protons. Along with neutrons, electrons and protons make up atoms, which in turn make up molecules and everything built of them. In other words, QED essentially describes much of the physical world we live in. And it does it extremely well. QED calculations for the spin of the electron have been confirmed to better than one part in ten trillion - making QED just about the most precise and successful theory of all time.

If QED is correct (and it appears to be the most correct theory yet developed, if experimental confirmation is a reasonable way to judge correctness), then I would argue that the things that go into QED calculations must be just as correct. Doing QED calculations requires using 1+2+3+4+ . . . = -1/12, so the equation is at least as correct as QED theory itself.

In fact, the Wikipedia page on a QED phenomenon known as the Casimir Effect shows a derivation of the effect that includes an even more audacious equation involving the sum of the cubes of the natural numbers up to infinity. Specifically, calculating the effect involves using the equation


1^3+2^3+3^3 +4^3+ . . . = 1/120, (where the notation 2^3 means 2x2x2)

(In the Wikipedia article, they have an equation that looks like this , but the stuff on the left hand side is just another way of writing 1^3+2^3+3^3 +4^3+ . . .)

The number on the right is positive this time, but it's ten times smaller than 1/12, even though each of the terms in the sum is much bigger than the corresponding terms in the equation 1 + 2 + 3 + 4 + . . . = 𕒵/12 (except for the first term, of course, since 1^3 = 1). Both equations come from the same sort of derivation, so it's not surprising that they are both seemingly incredible and ridiculous. But if you believe in QED and the Casimir Effect, how can you not believe the pieces that go into them?

Maybe It's Just a Trick

One response I've gotten after querying my more mathematically savvy friends is that the equations are nifty tricks, and nothing more, to get rid of infinities in QED and produce the correct finite answers. I guess that's possible, but you would have to be one heck of a mathamagician to come up with a trick resulting in accuracy of a part in ten trillion.

It's even more impressive when you consider that the QED predictions came before the experiments that measured things like the electron spin to fourteen decimal places. It's one thing to design a trick to rationalize a number you already know. It's a whole other matter to come up with a trick that gives you the answers in advance of the experiment. In that case, it's not a trick, it's simply a very good theory.

Maybe It's Not Necessary, Just Handy

One final possibility that I can think of is that the equations are not really necessary for doing QED calculations, and that instead there is a correct and intelligible approach that gives answers without using nonsense like 1 + 2 + 3 + 4 + . . . = 𕒵/12 or 1^3+2^3+3^3 +4^3+ . . . = 1/120.

I can't imagine why physicists would rather rely on trickery than doing things correctly, so I tend to dismiss the idea that some sort of mathematical conspiracy is behind it all. If it turns out that it's possible to have physical theories that describe the real world as well as QED does without relying these equations, then we might as well use those theories and forget the whole controversy.

So What's Really Wrong?

If you accept that Euler, Riemann, and Ramanujan did things properly when they found 1 + 2 + 3 + 4 + . . . = 𕒵/12, and if you accept that it and related equations are necessary to describe the real world, then how can you not accept that the equation is true? And yet, many people still claim that there's something wrong. It doesn't make sense. It's so counter intuitive that the phrase "counter intuitive" seems far too weak a description. It's an alien, freakish, mind f----.

But that's OK. Some things are true without being conceivable. This is just the most recent example I can think of. Pythagoras and and his followers apparently committed human sacrifice because they couldn't handle the idea of irrational numbers. For centuries, ancient mathematicians struggled with unsolvable problems because they didn't know that pi is a transcendental number. And today, there are still things about quantum mechanics that defy intuitive understanding - the whole point of Schrodinger's Cat is to illustrate the absurdity of quantum superposition. But just because people didn't intuitively grasp those things, it didn't change the fact the the square root of 2 is irrational, that pi's transcendental nature means it's impossible to square the circle, and that particles can become quantum mechanically entangled just like Schrodinger's Cat.

Yes, there's a problem with 1 + 2 + 3 + 4 + . . . = 𕒵/12. But I suspect the problem is with us and our failure to understand infinity. Why shouldn't an infinite sum of numbers going to infinity add up to a finite (and negative!) number? I don't really know what infinity means anyway, so I can't think of any way to object to a statement that includes not one but TWO infinities in it.

You might as well ask me why a bandersnatch of numbers going to bandersnatch add up to -1/12. But if you're able to mathematically sum a bandersnatch of bandersnatches, and then use that sum to describe the real world and predict the outcomes of real world experiments I have no choice but it seems unreasonable not to believe your bandersnatch math.


1.2: Naïvely - Mathematics

1.2.7 Non - commutativity of rules substitution

Let us look at the last of the 3 definitions of < f > in the above example. It implies that any input object has to be replaced by its Sine. Naively, this would mean that we should have obtained Sine-s of all our expressions, but this did not happen. The point is that the sequential rule application is non-commutative: first of all, the way rules are applied is such that once the first rule that applies is found, only this rule is applied, and other possibly matching rules are not tried on a given (sub)expression, in a single "run" of the rule application. Second, if several rules match an expression, the first applied rule rewrites it so that (some) of other rules don't match it any more. Therefore, the result depends on the order in which the rules are applied. Mathematica applies rules to expressions sequentially. Since the rule with the Sine function was defined last, it should mean that it has a chance to apply only to inputs whose form did not match patterns in the first two rules.


We must evaluate any exponents before we add, subtract, multiply or divide. For example, in the expression 2 3 + 3 × 2 2 2^3 + 3 imes 2^2 2 3 + 3 × 2 2 , we could obtain a variety of different answers if we changed the order of operations.

The correct ordering requires the evaluation of exponents first, which gives the following: 2 3 + 3 × 2 2 = 8 + 3 × 4 = 8 + 12 = 20 2^3 + 3 imes 2^2 = 8 + 3 imes 4 = 8 + 12 = 20 2 3 + 3 × 2 2 = 8 + 3 × 4 = 8 + 1 2 = 2 0 , which is now correct.

What is 3 2 × 2 + 4 3 3^2 imes 2 + 4^3 3 2 × 2 + 4 3 ?

Following the correct order of operations, we see that we must evaluate the exponents first. This gives 3 2 × 2 + 4 3 = 9 × 2 + 64 = 18 + 64 = 82. □ 3^2 imes 2 + 4^3 = 9 imes 2 + 64 = 18+64 = 82. _square 3 2 × 2 + 4 3 = 9 × 2 + 6 4 = 1 8 + 6 4 = 8 2 . □ ​


Schreier-Sims Algorithm

To describe the Schreier-Sims algorithm, we use the following notations:

  • is some subset represented in the computer’s memory
  • is a subgroup of
  • G acts on the set

Let us pick some random element and consider its orbit under G. From the theory of group actions, we have

where is the isotropy group of k. Now it is easy to compute the orbit of k: we start by setting the orbit to be the singleton <k>, then expand it by letting elements of UMA act on elements of this set. The process stops if we can’t add any more elements via this iteration. A more detailed algorithm will be provided later.

Thus, if we could effectively obtain a set of generators for , our task would be complete since we could recursively apply the process to . [Or so it seems: there’ll be a slight complication.]

For that, we pick a set você of representatives for the left cosets as follows. For each , we pick some element which maps , and for j = k we pick the identity. To facilitate this process, we use a data structure called a Schreier vector.


2 respostas 2

I'm not sure about the bonus but here's the best you can do for the main part

Proof that this is the best

Ignore the first equation and consider the sum of both sides of the other four equations. This gives us that the sum of fourteen distinct positive integers is equal to $4N$ . The sum of fourteen distinct positive integers is at least $105$ so we have $4N geq 105$ or $N geq 26.25$ . Hence $N geq 27$

Lower bound for the bonus

Let's say we use the same reasoning to try to obtain a lower bound and there are $n$ equations. Then ignoring the first equation we will have $frac<2>$ distinct positive integers on the left hand side which sum to $(n-1)N$ . The smallest possible value of the sum of $frac<2>$ distinct positive integers is $frac<(n^2+n-2)(n^2+n)><8>$ so we have that $ N geq frac<(n^2+n-2)(n^2+n)> <8(n-1)>= frac<8>$ or, since we know it is an integer $N geq leftlceil frac <8> ight ceil$

Improving this bound for larger $n$ (credit to Greg Martin in the comments for this idea)

If we ignore roughly the first $frac<3>$ equations and just consider the rest then we'll have roughly $frac<4n^2 + 3n><9>$ positive integers on the left hand side which sum to $frac<2nN><3>$ and since the sum of the first $frac<4n^2 + 3n><9>$ positive integers is $frac<(4n^2 + 3n)(4n^2+3n+9)><162>$ we obtain $ frac<2nN> <3>geq frac<(4n^2 + 3n)(4n^2+3n+9)><162>$ or $ N geq frac<16n^3+24n^2+45n+27> <108>> frac<4n^3><27>$ Greg Martin found the cutoff point $frac<2n><3>$ by optimization.
Already at $n=6$ we see this bound take over where the value of $frac<16n^3+24n^2+45n+27><108>$ is $42.75$ but for my original bound it's $42$ .

The OIES entry for the sequence A047837 calls this "Honaker's triangle problem" and says that the optimal $N$ is conjectured to equal:

(sequence A047873), where $T(n)=n(n+1)/2$ , the $n$ -th triangular number. The OIES entry refers to the book The Zen of Magic Squares, Circles and Stars by Clifford A. Pickover, who attributes the problem to math teacher and author G.L. Honaker, Jr. Pickover gives the same expression (in simplified form) as a lower bound on the sum $M$ :

(This is equal to the above expression at the maximal value of $r=lfloor n/3 floor+1$ .) This bound is credited to Mike Keith and Judson McCraine, who conjecture this bound is exact and have verified it "for all $n$ up to several hundred" (the OEIS says $n<365$ ). Unfortuately the trail of references ends here, as Pickover cites personal communication with Keith.

Note that the bound can be derived using the method described by hexomino, as shown below.

The triangle with $n$ rows has $T(n)$ entries, and similarly the portion of the triangle above row $r$ (i.e. up to row $r-1$ ) has $T(r-1)$ entries. Therefore the trapezoid from rows $r$ to $n$ has $k=T(n)-T(r-1)$ entries. A soma das entradas é igual à soma das linhas $ N $ vezes o número de linhas, $ n- (r-1) = n-r + 1 $. Como essas entradas devem ser distintas, sua soma não deve ser menor que a soma dos primeiros $ k $ inteiros, que é $ T (k) = T (T (n) -T (r-1)) $. Juntando esses resultados:

Uma vez que isso é verdade para qualquer $ r in [1, n] $, podemos tomar o máximo sobre todos $ r $ como o limite inferior para $ n $ (e como $ N $ é um inteiro, podemos considerar o teto como Nós vamos). A expressão é cúbica em $ r $, com uma derivada de:

A derivada tem raízes em:

A derivada é uma parábola voltada para baixo, então a expressão diminui antes da primeira raiz, aumenta entre as duas raízes e diminui após a segunda raiz. Entretanto, a primeira raiz ocorre quando $ r & lt0 $, portanto, para o intervalo em que estamos interessados, a expressão aumenta antes da raiz positiva e diminui depois. Isso significa que o máximo para $ r in mathbb$ ocorre no valor positivo de $ r ^ * $, e o máximo para $ r in mathbb$ ocorrerá no piso ou teto de $ r ^ * $.

Podemos usar isso, bem como $ a & lt sqrt$, para limitar o termo de raiz quadrada na expressão para o $ r $ ótimo:

Finalmente, se tomarmos $ n ge 1 $, então $ frac <1> <2n + 1> le frac <1> <3> $, então podemos limitar:

Disto podemos determinar que o valor ótimo para $ r in mathbb$ é um de $ lfloor (n + 2) / 3 rfloor = lceil n / 3 rceil $ ou $ lceil n / 3 rceil + 1 $. Para determinar qual, precisamos considerar três casos:

$ begin n & amp = 3k & amp lceil n / 3 rceil & amp = k n & amp = 3k + 1 & amp lceil n / 3 rceil & amp = k + 1 n & amp = 3k + 2 & amp lceil n / 3 rceil & amp = k + 1 end $

Para cada um desses casos, os dois limites para $ n $ são:

$ begin <| c | c | c |> hline n & amp N (r = lceil n / 3 rceil) & amp N (r = lceil n / 3 rceil + 1) hline 3k & amp 4k ^ 3 + 2k ^ 2 + k & amp 4k ^ 3 + 2k ^ 2 + frac <5> <4> k + frac <1> <4> hline 3k + 1 & amp 4k ^ 3 + 6k ^ 2 + 4k + 1 & amp 4k ^ 3 + 6k ^ 2 + frac <13> <4> k + frac <3> <4> hline 3k + 2 & amp 4k ^ 3 + 10k ^ 2 + frac <37> <4> k + 3 & amp 4k ^ 3 + 10k ^ 2 + 9k + 3 hline end $

Para o caso $ n = 3k $, a coluna da direita ($ r = lceil n / 3 rceil + 1 $) é maior, enquanto para as outras duas a coluna da esquerda é maior ($ r = lceil n / 3 rceil $). No entanto, observe que $ lceil n / 3 rceil = lfloor n / 3 rfloor $ quando $ n $ é divisível por 3 e $ lceil n / 3 rceil = lfloor n / 3 rfloor + 1 $ quando $ n $ não é divisível por 3, então ambos os casos podem ser simplificados para apenas:


Assista o vídeo: MATEMÁTICA 1. # SHORTS (Dezembro 2021).