- Gettimeofday in c windows
- ОПИСАНИЕ
- Gettimeofday in c windows
- ОПИСАНИЕ
- ВОЗВРАЩАЕМОЕ ЗНАЧЕНИЕ
- ОШИБКИ
- СООТВЕТСТВИЕ СТАНДАРТАМ
- ЗАМЕЧАНИЯ
- Поле tz_dsttime
- How can I get current time of day in milliseconds in C++?
- 3 Answers 3
- Note for systems with clocks that doesn’t support millisecond resolution
- difference between time() and gettimeofday() and why does one cause seg fault
- 1 Answer 1
- The short version
- The long version
- gettimeofday() C++ Inconsistency
- 1 Answer 1
Gettimeofday in c windows
int gettimeofday(struct timeval * tv , struct timezone * tz );
int settimeofday(const struct timeval * tv , const struct timezone * tz );
ОПИСАНИЕ
и задающей количество секунд и микросекунд с начала эпохи (см. time (2)).
Аргумент tz является timezone :
Использование структуры timezone является устаревшим методом: поле tz_dsttime никогда не использовалось в Linux, оно не поддерживается и не будет поддерживаться libc или glibc. Любое появление этого поля в исходных версиях ядра (за исключением его описания) является ошибкой. Поэтому все, что описано ниже, представляет собой только исторический интерес. Поле tz_dsttime содержит символьную постоянную (значения приведены ниже), которая включает в себя информацию о сезонной коррекции времени (Daylight Saving Time). (Замечание: эта величина постоянна и указывает лишь на алгоритм коррекции.) Алгоритмы сезонной коррекции определяются так :
DST_NONE /* без коррекции */
DST_USA /* коррекция для Америки */
DST_AUST /* коррекция для Австралии */
DST_WET /* коррекция для Западной Европы */
DST_MET /* коррекция для Центральной Европы */
DST_EET /* коррекция для Восточной Европы */
DST_CAN /* коррекция для Канады */
DST_GB /* Коррекция для Великобритании */
DST_RUM /* коррекция для Румынии */
DST_TUR /* коррекция для Турции */
DST_AUSTALT /* коррекция со сдвигом в 1986 для Австралии */
Разумеется, коррекцию для каждой страны нельзя описать простым алгоритмом, так как этот фактор может зависеть даже от непредсказуемых политических решений. Поэтому этот метод представления часовых поясов больше не используется. В Linux при вызове settimeofday поле tz_dsttime должно содержать нулевое значение.
В Linux существует специфическое понятие `часовой сдвиг’, связанное с функцией settimeofday tz не равен NULL, а параметр tv равен NULL, и значение поля tz_minuteswest не равно нулю. В этом случае предполагается, что время аппаратных часов (CMOS clock) местное и к ним дожен быть добавлен этот параметр для того, чтобы получилось время UTC. Но, как мы и говорили, использовать этот метод не рекомендуется.
Для работы со структурой timeval существуют следующие макросы:
Если tv или tz равно нулю, то соответствующая структура не заполняется или не возвращается.
Только суперпользователь может работать с settimeofday .
Gettimeofday in c windows
#include
int gettimeofday(struct timeval *tv, struct timezone *tz);
int settimeofday(const struct timeval *tv, const struct timezone *tz);
Требования макроса тестирования свойств для glibc (см. feature_test_macros(7)):
ОПИСАНИЕ
и задаёт количество секунд и микросекунд, прошедших с начала эпохи (см. time(2)). Аргумент tz имеет тип struct timezone:
Если tv или tz имеют значение NULL, то соответствующая структура не задана и не будет возвращена (однако при компиляции будут выдаваться предупреждения, если tv равно NULL).
Пользоваться структурой timezone не рекомендуется; значением аргумента tz в большинстве случаев должен быть NULL (см. ЗАМЕЧАНИЯ далее).
В Linux существует специфическое понятие «временной сдвиг» (warp clock), связанное с системным вызовом settimeofday(), который образуется при самом первом вызове (после загрузки), если аргумент tz не равен NULL, аргумент tv равен NULL и поле tz_minuteswest не равно нулю (в этом случае значение поля tz_dsttime должно быть равно нулю). В этом случае предполагается, что время аппаратных часов (CMOS clock) местное и к нему должен быть добавлен этот параметр для того, чтобы получилось время UTC. Но, как мы и говорили, использовать этот метод не рекомендуется.
ВОЗВРАЩАЕМОЕ ЗНАЧЕНИЕ
ОШИБКИ
СООТВЕТСТВИЕ СТАНДАРТАМ
ЗАМЕЧАНИЯ
Для работы со структурой timeval существуют макросы, описанные в timeradd(3).
Обычно, поля struct timeval имеют тип long.
Поле tz_dsttime
В старых системах поле tz_dsttime содержит символьную константу (значения приведены ниже), которая включает в себя информацию о сезонной коррекции времени (Daylight Saving Time) (замечание: эта величина постоянна и указывает лишь на алгоритм коррекции). Существующие алгоритмы сезонной коррекции:
Разумеется, коррекцию для каждой страны нельзя описать простым алгоритмом, так как этот фактор может зависеть даже от непредсказуемых политических решений. Поэтому этот метод представления часовых поясов больше не используется.
How can I get current time of day in milliseconds in C++?
The thing is, I have to somehow get current time of day in milliseconds in convenient format.
Example of desired output:
I know how to get this format in seconds, but I have no idea how to get my hands on milliseconds?
3 Answers 3
Using the portable std::chrono
Note for systems with clocks that doesn’t support millisecond resolution
As pointed out by @user4581301, on some systems std::system_clock might not have enough resolution for accurately representing current time in milliseconds. If that is the case, try using std::high_resolution_clock for calculating the number of milliseconds since the last second. This will ensure the highest available resolution provided by your implementation.
Taking the time from two clocks will inevitably lead you to get two separate points in time (however small the time difference will be). So keep in mind that using a separate clock for calculating the milliseconds will not yield perfect synchronization between the second, and millisecond periods.
Also, there seems to be no guarantee that the tick events of std::high_resolution_clock and std::system_clock are synchronized, and because of this the millisecond period might not be in sync with the periodic update of the current second given by the system clock.
Because of these reasons, using a separate high resolution clock for millisecond resolution should not be used when
difference between time() and gettimeofday() and why does one cause seg fault
I’m trying to measure the amount of time for a system call, and I tried using time(0) and gettimeofday() in this program, but whenever I use gettimeofday() it seg faults. I suppose I can just use time(0) but I’d like to know why this is happening. And I know you guys can just look at it and see the problem. Please don’t yell at me!
I want to get the time but not save it anywhere.
I’ve tried every combination of code I can think of but I pasted the simplest version here. I’m new to C and Linux. I look at the .stackdump file but it’s pretty meaningless to me.
GetRDTSC is in util.h and it does rdtsc() , as one might expect. Now it’s set to 10 iterations but later the loop will run 1000 times, without printf .
1 Answer 1
The short version
gettimeofday() requires a pointer to a struct timeval to fill with time data.
So, for example, you’d do something like this:
The long version
The real problem is that gcc is automatically including vdso on your system, which contains a symbol for the syscall gettimeofday . Consider this program (entire file):
By default, gcc will compile this without warning. If you check the symbols it’s linked against, you’ll see:
You just happen to be using a function that has a defined symbol, but without the prototype, there’s no way to tell how many command-line arguments it’s supposed to have.
If you compile it with -Wall , you’ll see:
Of course, it’ll segfault when you try to run it. Interestingly, it’ll segfault in kernel space (this is on MacOS):
Now consider this program (again, no header files):
This will compile and run just fine — no segfault. You’ve provided it with the memory location it expects, even though there’s still no gettimeofday prototype provided.
gettimeofday() C++ Inconsistency
I’m doing a project that involves comparing programming languages. I’m computing the Ackermann function. I tested Java, Python, and Ruby, and got responses between 10 and 30 milliseconds. But C++ seems to take 125 milliseconds. Is this normal, or is it a problem with the gettimeofday() ? Gettimeofday() is in time.h.
I’m testing on a (virtual) Ubuntu Natty Narwhal 32-bit. I’m not short processing power (Quad-core 2.13 GHz Intel Xeon).
My code is here:
1 Answer 1
Assuming you’re talking about the resolution of the data returned, the POSIX specification for gettimeofday states:
The resolution of the system clock is unspecified.
This is due to the fact that systems may have a widely varying capacity for tracking small time periods. Even the ISO standard clock() function includes caveats like this.
If you’re talking about how long it takes to call it, the standard makes no guarantees about performance along those lines. An implementation is perfectly free to wait 125 minutes before giving you the time although I doubt such an implementation would have much market success 🙂
As an example of the limited resolution, I typed in the following code to check it on my system:
The code basically records the changes in the underlying time, keeping a count of how many calls it took to gettimeofday() for the time to actually change. This is on a reasonably powerful machine so it’s not short on processing power (the count indicates how often it was able to call gettimeofday() for each time quantum, around the 5,800 mark, ignoring the first since we don’t know when in that quantum we started the measurements).
showing that the resolution seems to be limited to no better than one thousand microseconds. Of course, your system may be different to that, the bottom line is that it depends on your implementation and/or environment.
One way to get around this type of limitation is to not do something once but to do it N times and then divide the elapsed time by N .
For example, let’s say you call your function and the timer says it took 125 milliseconds, something that you suspect seems a little high. I would suggest then calling it a thousand times in a loop, measuring the time it took for the entire thousand.
If that turns out to be 125 seconds then, yes, it’s probably slow. However, if it takes only 27 seconds, that would indicate your timer resolution is what’s causing the seemingly large times, since that would equate to 27 milliseconds per iteration, on par with what you’re seeing from the other results.
Modifying your code to take this into account would be along the lines of: