SAP Jobsuche bei DV-Treff
maxzottl
  • maxzottl
  • SAP Forum - Profi Thema Starter
vor 10 Jahre
Hallo zusammen,

habe hier ein mysteriöses Problem:

Ich habe mir aus einer Aufzeichnung einen Funktionsbaustein zum Anlegen von Equipment-Arbeitsplänen (Transaktion IA01) gebaut.

Diesen Funktionsbaustein verwende ich in einer eigenen Dialogtransaktion (User gibt ein paar wenige Daten ein, der Rest wird per Default von Programm gesetzt und ein Arbeitsplan wird angelegt)und in einem eigenen Report (ich lade eine ganze Liste hoch, im loop wird der FUB aufgerufen und legt jeweils einen Arbeitsplan an).

Funktioniert soweit prima, nur irgendwann wird das Bild 'SAPLCPDA' '3010' nicht mehr ausgefüllt. Von der Liste werden gefühlt 10% nicht fehlerfrei verarbeitet, im Dialog geht's dann gar nicht mehr. Nach Ab- und Anmelden funktioniert es mit denselben Daten dann doch.

Aus dem Coding-Schnipsel ist ersichtlich, dass ich VERWE und STATU sogar hart abfülle, trotzdem kommen die Werte nicht auf dem Dynpro an.

perform bdc_dynpro using 'SAPLCPDA' '3010'.

perform bdc_field using 'BDC_OKCODE'

'=VOUE'.

perform bdc_field using 'PLKOD-KTEXT'

KTEXT.

perform bdc_field using 'RCR01-ARBPL'

GEWERK.

perform bdc_field using 'RCR01-WERKS'

WERGW.

perform bdc_field using 'PLKOD-VERWE'

'4'.

perform bdc_field using 'PLKOD-STATU'

'4'.

perform bdc_field using 'PLKOD-ANLZU'

ANLZU.

Gibt's Ideen dazu?

Gruß

Uwe (ratlos)

.fetox
vor 10 Jahre
Hallo,

eine Idee wäre: Können bestimmte Datenkonstellationen in dem Dynpro zu einem Popup oder Subscreen führen der in dem originalen Recording nicht vorkam, oder so etwas in der Art die Ablauflogik durcheinanderbringen?

Gruß,

Olli

maxzottl
  • maxzottl
  • SAP Forum - Profi Thema Starter
vor 10 Jahre
Hallo Olli,

ich denke, das kann ich ausschließen. Schließlich läuft der Batch-Input mit denselben Daten bei erneutem Versuch wieder in den Fehler, nach Ab- und Anmelden läuft er dann aber erst einaml wieder durch.

Gruß

Uwe

.fetox
vor 10 Jahre
Einzige was mir sonst noch einfällt ist das die LSWM Datenübernahmeworkbench für Stammdatenübernahmen im Batch-Input immer Parameter mitliefert, wieviele Datensätze pro Batch-Input Mappe übergeben werden. Ggf. gibts da einfach Limits das nach allen soundsoviel mal ein COMMIT WORK kommen sollte damit nicht irgendwelche Datenbankpuffer explodieren.. Aber das ist jetzt in die Luft geschossen, gibts keine OSS-Hinweise zu dem Thema?