Trabalhar com tipos numéricos e de caracteres é típico de trabalhar com uma linguagem de programação de baixo nível. Linguagens de programação de alto nível abstrair os detalhes associados com a manipulação dos vários tipos de números. Ser capaz de manipular o tipo de números e caracteres diretamente é importante ao programar aplicativos compactos que devem ser executados rapidamente. Inteiros
Inteiros são números inteiros e não têm parte decimal. Quando se trabalha com números inteiros , a menos que explicitamente dito , a maioria das linguagens de programação irá assumir que o resultado final de uma operação é para ser um inteiro e rodada vai a menos que dito de outra forma . Por exemplo, a expressão "4 /3" pode produzir "1" ou "2" dependendo de como as rodadas de linguagem. Inteiros são os tipos mais simples de números a maioria das linguagens de programação de baixo nível são capazes de representar .
Floating Point
números de ponto flutuante incluir um ponto decimal. Este tipo de número é usado para a realização de operações sobre os números com um ponto decimal. Muitas linguagens de programação não vai executar operações em números que são de diferentes tipos ou vai fazer suposições sobre o que o programador estava pedindo . Isto é importante para se lembrar quando se trabalha com números de ponto flutuante . Em uma linguagem de programação, " 2.5 + 4" pode ser igual a " 6.5" e em outro pode igualar "7 ". Outra língua pode dar um erro. Isso depende de como a linguagem escolhe para tratar números de tipos diferentes.
Longo
Devido a limitações de armazenamento, os limites do tipo inteiro quanto tempo o número pode ser antes que transborde , ocupando espaço extra na memória. O tipo Long existe para resolver este problema. Números longos são números que estão acima de um determinado comprimento. Este comprimento varia dependendo da máquina em que a língua está sendo executado. Inteiros longos precisam ser digitado desta forma , caso contrário, o número vai transbordar e causar erros.
Personagens
Personagens geralmente são representados de duas formas , em ASCII ou em Unicode . Estas são duas codificações de caracteres diferentes. Unicode é projetado para uso internacional e fornece codificação de caracteres para a maioria das línguas ao redor do mundo . ASCII antecede Unicode e suporta apenas Inglês Americano .