Hallo Gemeide,
ich habe folgenden Code der abhängig von einer detektierten
Grenze(channel_edge) ein Feld n-Schritte durchsuchen soll ob es einen
Wechsel zu einem positiven Anstieg gibt.
1 | for(int j=0;j<boundaries_detection_intervall;j=j+1) begin
|
2 |
|
3 | if(channel_edge_1[i]-j < 0 || channel_edge_1[i]==0) begin --// cancel if out of bounds
|
4 | break;
|
5 | end-- // end if
|
6 | else begin
|
7 |
|
8 | if(new_psd_flat[channel_edge_1[i]-j] < new_psd_flat[channel_edge_1[i]-j -1] ) begin --// search left for boundarie
|
9 |
|
10 | boundaries_reg[i]=channel_edge_1[i]-j;
|
11 | break; --// end the boundarie for loop
|
12 | end --// end if
|
13 |
|
14 | end --// end else
|
15 | end --// end for
|
Leider ist mein Code sehr Ressourcenfressend aber ich habe keine Idee
wie ich es optimieren kann. Vielleicht kann mir der ein oder andere
einen Denksantoß geben.
Ich denke das vorallem das Konstrukt new_psd_flat[channel_edge_1[i]-j]
zu Problemen führt bin mir aber nicht sicher.
Danke