Меню

Сортировать:

Новое Популярное
Вызов RFC ФМ из документов MS Office с помощью VBA (2)

Комментарий от  

Илья Филимонов

  |  13 февраля 2015, 04:24

Cуществует некая особенность при получении параметров соединения с системой Backend'a, в случае работы с BEx Analyzer'ом.
Если вы выполнили LogOn введя логин и пароль средствами BEx'а, то все параметры соединения доступны для анализа.
Если вы выполнили LogOn в BEx Analyzer со стороны Backend'a (тр. RRMX), то параметры соединения отсутствуют, словно выполнена имитация.
Сурово.
О производительности на хеш-таблицах. Тест ни о чем (14)

Комментарий от  

Роман Семенов

  |  12 февраля 2015, 19:37

Согласен, действительно тест ни о чем.
Если бы вы действительно занимались оптимизацией, то вместо
read table gs_stat-rls into infq index 250.
использовали бы
read table gs_stat-rls assigning <fs> index 250.
 
В этом случае ваши замеры действительно показывали бы время обращения к таблице приближенное к реальности. А так, большая часть всех этих тысяч секунд потрачена на бесполезное копирование данных из таблицы в строку.
 
PS: ошибку исправьте в слове "полпадают".
О производительности на хеш-таблицах. Тест ни о чем (14)

Комментарий от  

Денис Озорнов

  |  12 февраля 2015, 18:07

1) я солидарен с Влерием. Смысл очистки таблицы и повторного ее заполнения при таком тесте для меня не ясен. Это же не вытаскивание данных из СУБД.
 
2) в части раскидывания данных по квартилям, как мне кажется, это опять "ни о чем". По моему скромному мнению, тут бы скорее подошла гистограмма "сколько в штуках чтений пришлось на тот или иной участок стат.распределения". Такие данные были бы гораздо показательнее. Но, в принципе, и так видно, что большей частью все значения времени чтения сосредоточенны в левой части распределения.
 
3) повторюсь, как и в предыдущем обсуждении: есть аномальные значения, явно выбивающиеся из линейной корреляции(имея ввиду, что речь идет о вычислениях, а не о чтении СУБД, предположу, что это вызвано нагрузкой на железо апп.сервера, не связанной с работой программы), а так же - речь идет о микросекундех, т.е. отклонения по абсолютному значению времени не значительны, что и видно из вашего теста. (опять же, вспоминается хелп из версии 4.0, в котором обычно для каждой операции указывался разброс возможного времени выполнения в микросекундах)
О производительности на хеш-таблицах. Тест ни о чем (14)

Комментарий от  

Валерий Заузолков

  |  12 февраля 2015, 16:09

Не очень понял след.момент: "Мне представляется важным, чтобы для каждого размера проводилось не по 1000 измерений к одной и той же таблице, но чтобы таблица перестраивалась перед каждым измерением".
Но, насколько мне известно, назначение хэш-таблиц - это чтение по неизменяемым/малоизменяемым таблицам достаточного объема, т.е. когда наполнение таблицы происходит один раз и затем содержимое либо не меняется, либо мало меняется.
Поэтому мне видится, что для целей практического использования тест с 1000 чтениями по одному и тому же содержимому был бы ценней, чем 1 чтения по 1000 содержимым. Или ошибаюсь?
Вызов RFC ФМ из документов MS Office с помощью VBA (2)

Комментарий от  

Олег Башкатов

  |  11 февраля 2015, 13:27

секрет можно дополнить использованием ABAP in Eclipse:
сколь угодно сессий
сколь угодно запусков
Ведение пользовательских документов изменений (3)

Комментарий от  

Александр Дублин

  |  10 февраля 2015, 00:59

Николай Кронский 05 февраля 2015, 14:21

Виталий, информация по генерации преподнесена верно, но вот тема использования вызовов ФМ в собственной АВАР-разработке, мне кажется, раскрыта не полностью.
Внесу пару дополнений, если не возражаете:
1) Сгенерированные ФМ являются модулями обновлений с отложенным запуском (V2-Update). Соответственно, запускаться должны, в идеале, из модуля обновлений ваших данных.
2) Кроме того, можно было бы отметить возможность подготовки таблиц обновления с помощью стандартного ФМ CHANGEDOCUMENT_PREPARE_TABLES. Отдавая на вход таблицы с новыми/старыми данными, получим готовенькие таблицы с установленными индикаторами обновлений.
3) Еще есть нюанс - если запись документа изменений проводится для сложного бизнес-объекта (заголовок + позиции), то модуль, полученный автоматически (как описано в статье), разнесет разные виды изменений позиций (U, I,D) по различным документам изменений, что не всегда удобно и оптимально. В этом случае придется "пилить" собственный модуль записи документов изменений, основываясь, как и стандартный на ФМ CHANGEDOCUMENT_*.

Николай, а нет ли желания и возможности написать собственную статью?
Мы поможем.
Ведение пользовательских документов изменений (3)

Комментарий от  

Виталий Ванин

  |  05 февраля 2015, 15:25

Николай Кронский 05 февраля 2015, 14:21

Виталий, информация по генерации преподнесена верно, но вот тема использования вызовов ФМ в собственной АВАР-разработке, мне кажется, раскрыта не полностью.
Внесу пару дополнений, если не возражаете:
1) Сгенерированные ФМ являются модулями обновлений с отложенным запуском (V2-Update). Соответственно, запускаться должны, в идеале, из модуля обновлений ваших данных.
2) Кроме того, можно было бы отметить возможность подготовки таблиц обновления с помощью стандартного ФМ CHANGEDOCUMENT_PREPARE_TABLES. Отдавая на вход таблицы с новыми/старыми данными, получим готовенькие таблицы с установленными индикаторами обновлений.
3) Еще есть нюанс - если запись документа изменений проводится для сложного бизнес-объекта (заголовок + позиции), то модуль, полученный автоматически (как описано в статье), разнесет разные виды изменений позиций (U, I,D) по различным документам изменений, что не всегда удобно и оптимально. В этом случае придется "пилить" собственный модуль записи документов изменений, основываясь, как и стандартный на ФМ CHANGEDOCUMENT_*.

Спасибо, Николай!
Очень полезная информация.
Ведение пользовательских документов изменений (3)

Комментарий от  

Николай Кронский

  |  05 февраля 2015, 14:21

Виталий, информация по генерации преподнесена верно, но вот тема использования вызовов ФМ в собственной АВАР-разработке, мне кажется, раскрыта не полностью.
Внесу пару дополнений, если не возражаете:
1) Сгенерированные ФМ являются модулями обновлений с отложенным запуском (V2-Update). Соответственно, запускаться должны, в идеале, из модуля обновлений ваших данных.
2) Кроме того, можно было бы отметить возможность подготовки таблиц обновления с помощью стандартного ФМ CHANGEDOCUMENT_PREPARE_TABLES. Отдавая на вход таблицы с новыми/старыми данными, получим готовенькие таблицы с установленными индикаторами обновлений.
3) Еще есть нюанс - если запись документа изменений проводится для сложного бизнес-объекта (заголовок + позиции), то модуль, полученный автоматически (как описано в статье), разнесет разные виды изменений позиций (U, I,D) по различным документам изменений, что не всегда удобно и оптимально. В этом случае придется "пилить" собственный модуль записи документов изменений, основываясь, как и стандартный на ФМ CHANGEDOCUMENT_*.
Загрузка справочника БИК с сайта ЦБ России с помощью SAP PI (5)

Комментарий от  

Марат Бареев

  |  30 января 2015, 17:42

Илья Кузнецов 29 января 2015, 10:22

Нехорошо из меппинга куда попало (=недокументировано) соединения устанавливать! Правильно передавать канал как параметр меппинга, а URL через динамическую конфигурацию подсовывать. Да и параметры прокси для интернета, мониторинг общения с ЦБР и поиск ошибок можно будет делать через PIMON.

Илья,
 
согласен с тем, что второй этап маппинга (получение итогового файла по ссылке) можно было реализовать через Communication Channel, но я не хотел усложнять схему работы.
 
Основной упор делается на динамическое получение итоговой ссылки на файл и конверсию DBF-файлов "на лету".
Abap/4 vs C++ (13)

Комментарий от  

Валерий Заузолков

  |  29 января 2015, 15:23

По моему опыту в хорошо написанной ABAP-программе основное время уходит на выборку из БД. Нет необходимости в бизнес-приложениях решать системы дифф. уравнений (это я про сложность алгоритмов с данными ;)
 
А как fun вполне интересно ... :)
 
П.С.: Единственно, что продолжительность "неделя" и характеристика "не очень трудозатратно" у меня не вяжутся. %)
Заметки старого АБАПника (3)

Комментарий от  

Иван Рыбкин

  |  29 января 2015, 14:53

Однако, если READ TABLE  будет использоваться несколько раз  ( для данного примера > 8 раз ) то использование SORT +  BINARY SEARCH  будет давать выигрыш в производительности.  Например, в цикле.
Но при единичном READ TABLE , действительно быстрее без сортировки. Спасибо !
Загрузка справочника БИК с сайта ЦБ России с помощью SAP PI (5)

Комментарий от  

Алексей Полтев

  |  29 января 2015, 12:08

Марат, привет!)
Загрузка справочника БИК с сайта ЦБ России с помощью SAP PI (5)

Комментарий от  

Илья Кузнецов

  |  29 января 2015, 10:22

Нехорошо из меппинга куда попало (=недокументировано) соединения устанавливать! Правильно передавать канал как параметр меппинга, а URL через динамическую конфигурацию подсовывать. Да и параметры прокси для интернета, мониторинг общения с ЦБР и поиск ошибок можно будет делать через PIMON.
Загрузка справочника БИК с сайта ЦБ России с помощью SAP PI (5)

Комментарий от  

Admin SAPLand

  |  20 января 2015, 15:15

Дмитрий Волков 18 января 2015, 00:50

Добрый день, Марат,
 
Исходный код zip_dbf_to_xml.java не доступен для скачивания.
 
С уважением,
Дмитрий

Дмитрий, добрый день!
 
Ссылку исправили. Теперь Вы можете скачать код.
Загрузка справочника БИК с сайта ЦБ России с помощью SAP PI (5)

Комментарий от  

Дмитрий Волков

  |  18 января 2015, 00:50

Добрый день, Марат,
 
Исходный код zip_dbf_to_xml.java не доступен для скачивания.
 
С уважением,
Дмитрий
Глава 2. Два ALV GRID на одном экране. Часть 4 (1)

Комментарий от  

Анатолий Ермаков

  |  16 января 2015, 16:03

Для корректной работы с вариантами ALV необходимо для каждого ALV в управляющей структуре варианта (ls_variant) заполнить поле HANDLE уникальными значениями, например:
- для 1-го грида ls_variant-handle = '1'.
- для 2-го грида ls_variant-handle = '2'.
 
Без этого выбор варианта в любом из гридов будет применяться и к другому.
Конфигурация регистров на примере добавления новых вкладок в договор IS-U (1)

Комментарий от  

Олег Точенюк

  |  23 декабря 2014, 15:20

Небольшое примечание: Вот то что вы написали, это так называемый CUSTOMER EXIT, а USER_EXIT это вставка вызова в коде, в виде perform user_exit_xxxx наблюдается в такой функциональности как SD например.
Глава 2. Два ALV GRID на одном экране. Часть 1 (1)

Комментарий от  

Анатолий Рогачиков

  |  23 декабря 2014, 14:03

Спасибо, полезная статья. В свое время искал как это сделать. Как раз была такая задача - отчет по распределению ценовых отклонений сырья на готовый продукт. Хотел вывести 2 таблицы - основную для успешных распределений и таблицу ошибок (то что не удалось распределить из-за отсутствия активных рецептур). Не нашел, плюнул, свел в одну таблицу, не совсем по фен шуй получилось, но ничего все привыкли...
Заметки старого АБАПника (3)

Комментарий от  

Оберманн З. Л.

  |  10 декабря 2014, 11:22

Олег Башкатов 09 декабря 2014, 00:01

К Автору: можно ли указать версию системы, уровень ABAP, ОС и тех.параметры сервера на которых производились замеры?
 
если нет - то нет (в принципе они не так важны).
но если меряем точности, хотелось бы знать чем меряем)))
 
Колонка весьма интересная - спасибо!
 
PS. у меня схожий результат.


 
Злоберманн с радостью заметил интерес, проявленный к данной теме, и предполагает вернуться к этой теме в близком будущем.
Заметки старого АБАПника (3)

Комментарий от  

Олег Башкатов

  |  09 декабря 2014, 00:01

К Автору: можно ли указать версию системы, уровень ABAP, ОС и тех.параметры сервера на которых производились замеры?
 
если нет - то нет (в принципе они не так важны).
но если меряем точности, хотелось бы знать чем меряем)))
 
Колонка весьма интересная - спасибо!
 
PS. у меня схожий результат.
Продолжая использовать сайт, вы соглашаетесь на обработку персональных данных, собираемых с использованием cookie-файлов и сервиса «Яндекс Метрика» для анализа использования сайта и оценки эффективности маркетинговых кампаний. Более подробная информация представлена в Политике конфиденциальности.
Понятно