Enciclopedia

537Attualmente online
49La lettura di oggi
37Condividi oggi
Display multilingue

Immagini visive: entropia computing - entropia globale contro entropia locale

2018-03-05 17:36:00

Yiddish: immagini l’entropia riflette di informazioni: ① quando immagini per figura color puro bianco o nero), soltanto un valore di grigi che l’entropia minima, nel momento in cui H = 0, la quantità di immagini per 0; Perché se l’immagine è allo stato puro, è evidente che non contiene alcun obiettivo e che l’informazione è 0; ② quando contiene immagini di grigi di azoto, ossia immagini ogni pixel valori di grigi diversi, in un momento in cui l’entropia massimo, H = logN, immagini la quantità massima; A questo punto, il grado di intonazione di ogni pixel varia da immagine a pixel, e si può ritenere che ogni pixel dell’immagine sia un bersaglio separato, con una quantità massima di informazioni N, simile a quella di una mappa piena di oggetti; - maggiore entropia dell’immagine, più i pixel che essa contiene sono ricchi e la loro distribuzione è più uniforme, più l’immagine ha il suo bersaglio nel suolo, più la quantità di informazioni dell’immagine è inversamente proporzionale; Un’immagine che, quando ogni pixel ha un grado di grigio diverso, a questo punto ha l’entropia maggiore.

Metodi/fasi
1

Entropia dell’informazione: il concetto di entropia dell’informazione nella teoria dell’informazione è: Il messaggio autonomo è una variabile che si riferisce alla quantità di informazioni contenuta in un messaggio inviato da una data fonte. Esiste un rapporto diretto tra la quantità di informazioni fornite da un dato e la sua incertezza. I messaggi inviati sono diversi e la quantità di informazioni che contengono è diversa. La quantità di autoinformazione di un messaggio rappresenta la quantità media di autoinformazione contenuta nella fonte. Non può essere usata come misura dell’informazione di una fonte intera, per cui la matematica che definisce la quantità di informazioni autofornite è la quantità media di informazioni autofornite della fonte. Significato dell’entropia dell’informazione: l’entrh dell’informazione di una fonte di lettera è considerata dalle caratteristiche statistiche dell’intera fonte di informazione. Esso rappresenta le caratteristiche globali di una fonte in termini di significato medio. Per una data fonte c’è solo un’entropia dell’informazione. Le diverse fonti di informazioni differiscono per le loro caratteristiche statistiche e per le loro entropia. L’entropia dell’informazione è generalmente espressa con il simbolo H, espresso in bit. Maggiore è l’incertezza della variabile, maggiore è l’entropia.

2

Entropia dell’immagine: è una forma statistica di caratteristiche che riflette la quantità media di informazioni dell’immagine. Grigi l’entropia monoidrossilici: unidimensionale l’entropia immagini unidimensionale l’entropia espresso grigi nella distribuzione di aggregazione caratteristiche la quantità di informazioni contenute, con Pi ha un valore di grigi nell’immagine di quota i pixel, definizione di grigi di grigi l’entropia monoidrossilici delle immagini sono quelli stabiliti cui Pi è qualche apparizione della scala dei grigi nelle immagini, disponibile da istogrammi di grigi. L’entropia unidimensionale dell’immagine può rappresentare le caratteristiche aggregate della distribuzione della scala delle ceneri dell’immagine;

3

— entropia bidimensionale: l’entropia unidimensionale delle immagini può rappresentare la caratteristica aggregata della distribuzione delle ceneri delle immagini, ma non riflettere le caratteristiche spaziali della distribuzione delle ceneri delle immagini; Per caratterizzare questa caratteristica spaziale, occorre introdurre nell’immagine un’entropia bidimensionale, basata su un’entropia unidimensionale, con un numero di caratteristiche tale da riflettere le caratteristiche spaziali della distribuzione della scala delle stelle; La media di grigio adiacente dell’immagine è stata scelta come volume delle caratteristiche spaziali della distribuzione delle ceneri, che costituiscono il gruppo a due facce con i pixels dell’immagine, nel caso (i, j) in cui i rappresenta il livello di cenere di un pixels (0 <= i <= 255) e j indica il livello medio di cenere di un pixels (0 <= j <= 255) : Caratteristiche combinate dell’equazione superiore che reagisce ad una determinata posizione di un pixel con la sua distribuzione periferica di pixel, in cui f(i, j) è il numero di frequenze presenti nel gruppo binazionale caratteristico (i, j), N è la scala dell’immagine, che definisce un’immagine discreta con un’opia bidimensionale: L’entropia bidimensionale dell’immagine costruita può evidenziare la caratteristica combinata dell’informazione sulla scala di grix che riflette la posizione dei pixel nell’immagine e la distribuzione della scala all’interno dei pixels.

4

Entropy() e entropyFilt(). Entropy() calcola l’entropy globale; EntropyFilt () calcolo dell’entropyfilt locale; Entropy(I) calcola l’entropy globale con: Curhist = curhist / sum(curhist); E = -sum(curhist .* log2(curhist));  Per il calcolo dell’entropyfilt (I) l’entropyfilt locale è: Il metodo consente di ottenere immagini di tessitura;

5

Programma entropico locale del matlab: Maggiore sarà l’entropia, maggiore sarà il grado di disorganizzazione; — immagini che definiscono l’entropia locale dell’immagine in base alla distribuzione regolare dei pixel di grigio, che riflette il grado di abbondanza dell’informazione dell’immagine; Quanto più bassa è la probabilità che un evento si verifichi, tanto maggiore è la quantità di informazioni che esso contiene e tanto più elevato è il suo grado di incertezza; Il metodo della moltiplicazione significa che l’incertezza di un evento, moltiplicata per la probabilità che si verifichi, rappresenta una quantità di incertezza che si manifesta concretamente con una cosa. clear all; close all; clc; img1 = imread('raw.bmp'); img = rgb2gray(img1); %gray[m n]=size(img); w=4; Raggio dell’anima in % imgn=zeros(m,n) % m * n la matrice for = 1 + w: m - w per j = 1 + w: n - w protagonisti = zeros 1.256); % il 1 * 256 for p = i - w: 1 + w % nucleare dimensioni for q = j w: j + w protagonisti (img) (p, q) + 1 = banca dati (img) (p, q) + 1 + 1; Istogrammi end end protagonisti del dipartimento % = banca dati/sum (banca dati); for k=1:256            if Hist(k)~=0               imgn(i,j)=imgn(i,j)+Hist(k)*log(1/Hist(k)); % l’entropia end end endendimshow locale (imgn, []) imgn = entropyfilt (img); Il primo dato riguarda il sistema %. imshow(imgn,[]);

6

- programmazione entropica globale: il test di entropia globale (entropia globale %) produce immagini A=floor(rand(8,8).*255); [M,N]=size(A);  Traslocazioni reciproche = zeros 1.256); % ai valori di grigi delle immagini su [0.255 for m = 1: statistiche m for n = 1: n if A (m, n) = = 0; i=1;         else             i=A(m,n);         end         temp(i)=temp(i)+1;     end end temp=temp./(M*N);    % definito da entropia per calcolare il livello di fatica =0; for  i=1:length(temp)     if temp(i)==0;         result=result;     else         result=result-temp(i)*log2(temp(i));     end end

7

- i principali utenti sono i seguenti: I =0; i(m);  for(int n=0; n

osservazioni
1

L’entropia dell’immagine riflette la quantità di informazione contenuta nell’immagine;

2

Immagine con una scala di grigio differente per ogni pixel, a questo punto con entropia massima;

Raccomandazione